WO2018070788A1 - 영상 부호화 방법/장치, 영상 복호화 방법/장치 및 비트스트림을 저장한 기록 매체 - Google Patents

영상 부호화 방법/장치, 영상 복호화 방법/장치 및 비트스트림을 저장한 기록 매체 Download PDF

Info

Publication number
WO2018070788A1
WO2018070788A1 PCT/KR2017/011215 KR2017011215W WO2018070788A1 WO 2018070788 A1 WO2018070788 A1 WO 2018070788A1 KR 2017011215 W KR2017011215 W KR 2017011215W WO 2018070788 A1 WO2018070788 A1 WO 2018070788A1
Authority
WO
WIPO (PCT)
Prior art keywords
transform
block
sub
current
transform block
Prior art date
Application number
PCT/KR2017/011215
Other languages
English (en)
French (fr)
Inventor
문주희
원동재
임성원
Original Assignee
세종대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020170127941A external-priority patent/KR102416804B1/ko
Priority to CN202311035065.5A priority Critical patent/CN116886908A/zh
Priority to CN202311034364.7A priority patent/CN116886905A/zh
Priority to CN202311035109.4A priority patent/CN116886909A/zh
Priority to CN202311034508.9A priority patent/CN116886906A/zh
Priority to CN201780063400.9A priority patent/CN109845256B/zh
Priority to CN202311029873.0A priority patent/CN116886904A/zh
Priority to CN202311038545.7A priority patent/CN116886911A/zh
Application filed by 세종대학교 산학협력단 filed Critical 세종대학교 산학협력단
Priority to CN202311034660.7A priority patent/CN116886907A/zh
Priority to CN202311036441.2A priority patent/CN116886910A/zh
Priority to CN202311034101.6A priority patent/CN116939202A/zh
Priority to US16/341,830 priority patent/US10979709B2/en
Publication of WO2018070788A1 publication Critical patent/WO2018070788A1/ko
Priority to US17/196,160 priority patent/US11659174B2/en
Priority to US17/860,353 priority patent/US20220345703A1/en
Priority to US17/860,350 priority patent/US20220368901A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • H04N19/122Selection of transform size, e.g. 8x8 or 2x4x8 DCT; Selection of sub-band transforms of varying structure or type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/119Adaptive subdivision aspects, e.g. subdivision of a picture into rectangular or non-rectangular coding blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/129Scanning of coding units, e.g. zig-zag scan of transform coefficients or flexible macroblock ordering [FMO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • H04N19/147Data rate or code amount at the encoder output according to rate distortion criteria
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Definitions

  • the present invention relates to an image encoding / decoding method and apparatus, and more particularly, to an image encoding method and an image decoding method capable of adaptively determining a region to be quadratic transformed and a divided form of a sub-conversion block of the region. will be.
  • Video compression is largely composed of intra prediction, inter prediction, transform, quantization, entropy coding, and in-loop filter.
  • the transformation refers to a technique of converting an input signal into a signal of another region and encoding the same.
  • An object of the present invention is to provide an image encoding / decoding method and apparatus with improved compression efficiency.
  • the present invention may provide an image encoding / decoding method for adaptively determining a region to be transformed in a transform block and a partitioning form of a sub transform block in a transform performing region in order to improve encoding / decoding efficiency of an image. .
  • Another object of the present invention is to provide an image encoding / decoding method for adaptively determining a scanning method of a sub transform block in a transform performing region in order to improve encoding / decoding efficiency of an image.
  • a method of decoding an image comprising: determining a transform performing region; And dividing the determined transform performing region into at least one sub transform block using at least one of quadtree splitting and binary tree splitting, and performing inverse transform on the at least one sub transform block.
  • the determining of the transform performing region may determine the transform performing region based on an intra prediction mode of the current prediction block corresponding to the current transform block.
  • the determining of the transform performing region may include determining a left region of the current transform block as the transform performing region when the intra prediction mode of the current prediction block is a horizontal prediction mode.
  • the intra prediction mode of the current prediction block is the vertical prediction mode
  • the upper region of the current transform block is determined as the transform performing region
  • the intra prediction mode of the current prediction block is the horizontal prediction mode and the vertical direction.
  • an upper left region of the current transform block may be determined as the transform performing region.
  • the determining of the transform performing region may determine the transform performing region based on a specific frequency region of the current transform block.
  • the specific frequency region may be determined based on a predefined value.
  • the inverse transform may be one of a first order inverse transform and a second order inverse transform.
  • the at least one sub transform block may be a 2D sub transform block.
  • the determining of the coefficient scanning method of the sub transform block may determine the coefficient scanning method of the sub transform block based on an intra prediction mode of the current prediction block corresponding to the current transform block.
  • the determining of the coefficient scan method of the sub-conversion block may be determined by any one of a vertical scan, a horizontal scan, and a 45-degree diagonal scan.
  • reordering the 2D sub-transform blocks based on the determined coefficient scan method may reorder the 2D sub-transform blocks into 1D sub-transform blocks based on the determined coefficient scan method.
  • an image encoding method includes determining a transform performing region; The method may include dividing the determined transform performing region into at least one sub transform block using at least one of quadtree splitting and binary tree splitting, and performing transform on the at least one sub transform block.
  • the determining of the transform performing region may determine the transform performing region based on an intra prediction mode of the current prediction block corresponding to the current transform block.
  • the determining of the transform performing region may include determining a left region of the current transform block as the transform performing region when the intra prediction mode of the current prediction block is a horizontal prediction mode.
  • the intra prediction mode of the current prediction block is the vertical prediction mode
  • the upper region of the current transform block is determined as the transform performing region
  • the intra prediction mode of the current prediction block is the horizontal prediction mode and the vertical direction.
  • an upper left region of the current transform block may be determined as the transform performing region.
  • the determining of the transform performing region may determine the transform performing region based on a specific frequency region of the current transform block.
  • the specific frequency region may be determined based on a predefined value.
  • the transform may be one of a first order transform and a second order transform.
  • the at least one sub transform block may be a 2D sub transform block.
  • the video encoding method comprising: determining a coefficient scan method of the sub transform block; And rearranging the 2D sub-conversion block based on the determined coefficient scan method.
  • the determining of the coefficient scanning method of the sub transform block may determine the coefficient scanning method of the sub transform block based on an intra prediction mode of the current prediction block corresponding to the current transform block.
  • the method of determining a coefficient scan method of the sub-conversion block may be determined by any one of a vertical scan, a horizontal scan, and a 45-degree diagonal scan.
  • reordering the 2D sub-transform block based on the determined coefficient scan method may reorder the 2D sub-transform block into a 1D sur- transform block based on the determined coefficient scan method.
  • a recording medium comprises: determining a conversion performing area; Dividing the determined transform performing region into at least one sub transform block using at least one of quadtree splitting and binary tree splitting, and performing transform on the at least one sub transform block. It can store the bitstream generated by.
  • an image encoding / decoding method and apparatus with improved compression efficiency can be provided.
  • an image encoding / decoding method for adaptively determining a partition type of a transform block and a division form of a sub transform block in a transform performing area. Can be.
  • an image encoding / decoding method for adaptively determining a scanning method of a sub transform block in a transform performing region may be provided in order to improve encoding / decoding efficiency of an image.
  • FIG. 1 is a block diagram schematically illustrating a video encoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram schematically illustrating an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 3 is a flowchart illustrating a transformation method of an image encoding apparatus according to an embodiment of the present invention.
  • FIG. 4 is a flowchart illustrating a conversion method of an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 5 is a flowchart illustrating a method of determining a transform performing region based on an intra prediction mode according to an exemplary embodiment.
  • FIG. 6 is a diagram for describing a lateral prediction mode according to an exemplary embodiment.
  • FIG. 7 is a diagram for describing a portrait prediction mode according to an exemplary embodiment.
  • FIG. 8 is a diagram for describing a left region, an upper region, and an upper left region in a current transform block according to an embodiment of the present invention.
  • FIG. 9 is a flowchart illustrating a method of determining a transform performing region based on a frequency region of a transform block according to an embodiment of the present invention.
  • FIG. 10 is a diagram illustrating an example of determining a transform performing region based on a frequency region of a transform block.
  • 11 and 12 are flowcharts illustrating quadtree splitting of a transform block according to an embodiment of the present invention.
  • FIG. 13 and 14 are flowcharts illustrating binary tree partitioning of a transform block according to an embodiment of the present invention.
  • 15 is a diagram illustrating an example in which a transform performing region is divided into partial transform blocks using quadtree partitioning and binary tree partitioning.
  • 16 illustrates an example of a method of scanning and rearranging a 2D sub-conversion block when a 2D sub-conversion block is changed to a 1D sub-conversion block to perform a 1D transform method instead of a 2D transform method.
  • 17 shows an example of a method of scanning and rearranging a 2D sub-conversion block.
  • FIG. 18 is a flowchart illustrating a method of determining a method of scanning a sub transform block based on a prediction mode of a current block according to an embodiment of the present invention.
  • FIG. 19 is a diagram illustrating a method of determining a sub transform block scanning method based on a transform basis according to an embodiment of the present invention.
  • 20 is a flowchart illustrating an image decoding method according to an embodiment of the present invention.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIG. 1 is a block diagram illustrating an image encoding apparatus according to an embodiment of the present invention.
  • the image encoding apparatus 100 may include an image splitter 101, an intra picture predictor 102, an inter picture predictor 103, a subtractor 104, a transformer 105, and a quantizer. 106, an entropy encoder 107, an inverse quantizer 108, an inverse transformer 109, an adder 110, a filter 111, and a memory 112.
  • each of the components shown in FIG. 1 is independently illustrated to represent different characteristic functions in the image encoding apparatus, and does not mean that each of the components is made of separate hardware or one software component unit.
  • each component is included in each component for convenience of description, and at least two of the components may be combined into one component, or one component may be divided into a plurality of components to perform a function.
  • Integrated and separate embodiments of the components are also included within the scope of the present invention without departing from the spirit of the invention.
  • the components may not be essential components for performing essential functions in the present invention, but may be optional components for improving performance.
  • the present invention can be implemented including only the components essential for implementing the essentials of the present invention except for the components used for improving performance, and the structure including only the essential components except for the optional components used for improving performance. Also included in the scope of the present invention.
  • the image divider 100 may divide the input image into at least one block.
  • the input image may have various shapes and sizes, such as a picture, a slice, a tile, and a segment.
  • a block may mean a coding unit (CU), a prediction unit (PU), or a transformation unit (TU).
  • the image splitter 100 may perform division from a maximum coding block (hereinafter, referred to as a maximum coding block) to a coding block of a minimum size (hereinafter, referred to as a minimum coding block).
  • the partitioning may be performed based on at least one of a quadtree or a binary tree.
  • Quad tree is a method of dividing an upper block into lower blocks having a width and a height of half of the upper block.
  • the binary tree divides the upper block into lower blocks, which are half of the upper block in either width or height.
  • a block may have a square as well as a non-square shape.
  • a coding unit may be used as a unit for encoding or may be used as a unit for decoding.
  • the coding unit may mean a coding block.
  • the predictors 102 and 103 may include an inter prediction unit 103 that performs inter prediction and an intra prediction unit 102 that performs intra prediction.
  • the prediction units 102 and 103 may generate a prediction block by using neighboring pixels of a block to be currently predicted (hereinafter, referred to as a prediction block) from a current original block or a reference picture that has been previously decoded.
  • a prediction block may be generated in the prediction block.
  • the prediction block may have the same shape as the coding block.
  • the prediction technique of the video signal is largely composed of intra prediction and inter prediction.
  • the intra prediction is a method of generating a prediction block by using neighboring pixels of the current block, and the inter prediction has already been previously encoded and decoded.
  • the prediction block is generated by finding a block most similar to the current block in the finished reference picture.
  • the prediction units 102 and 103 may determine the optimal prediction mode of the prediction block by using various techniques such as rate-distortion optimization (RDO) for the residual block obtained by subtracting the prediction block from the current original block.
  • RDO rate-distortion optimization
  • D degradation due to quantization
  • R is the rate of the compressed stream
  • J is the RD cost
  • is the coding mode
  • is the Lagrangian multiplier, a scale correction factor for matching the unit between the amount of bits and the amount of bits. Can be.
  • the residual value (residual block) between the generated prediction block and the original block may be input to the transformer 105.
  • prediction mode information and motion vector information used for prediction may be encoded by the entropy encoder 107 together with the residual value and transmitted to the decoder.
  • the original block may be encoded as it is and transmitted to the decoder without generating the prediction block through the prediction units 102 and 103.
  • the intra prediction unit 102 may generate a prediction block based on reference pixel information around the current block, which is pixel information in the current picture.
  • a reference pixel included in the neighboring block to which inter prediction is applied may be replaced with a reference pixel in another block around to which intra prediction is applied. That is, when the reference pixel is not available, the unavailable reference pixel information may be replaced with at least one reference pixel among the available reference pixels.
  • a prediction mode may have a directional prediction mode using reference pixel information according to a prediction direction, and a non-directional mode using no directional information when performing prediction.
  • the mode for predicting the luminance information and the mode for predicting the color difference information may be different, and the intra prediction mode information or the predicted luminance signal information used for predicting the luminance information may be utilized to predict the color difference information.
  • the inter prediction unit 103 may generate a prediction block based on information of at least one picture of a previous picture or a subsequent picture of the current picture, and in some cases, based on information of a partial region in which encoding is completed in the current picture.
  • a prediction block can be generated as
  • the inter prediction unit 103 may include a reference picture interpolator, a motion predictor, and a motion compensator.
  • the subtraction unit 104 may generate a residual block of the current block by subtracting the block to be currently encoded and the prediction block generated by the intra prediction unit 102 or the inter prediction unit 103.
  • the transform unit 105 may generate a transform block by applying transform methods such as DCT, DST, and Karhunen Loeve Transform (KLT) to the residual block including the residual data.
  • the transform block can be a unit used for the transform and quantization process.
  • the entire residual block may be transformed, or the residual block may be divided into sub-block units to perform the transform.
  • a quadtree or binary tree based splitting scheme may be used as a splitting scheme for a transform block.
  • the transformation method may be determined based on the intra prediction mode of the prediction block used to generate the residual block.
  • DCT may be used in the horizontal direction and DST may be used in the vertical direction.
  • the quantization unit 106 may generate a quantized transform block by quantizing the transform blocks transformed into the frequency domain by the transform unit 105.
  • the quantization coefficient may change depending on the block or the importance of the image.
  • the quantization unit 106 may quantize transform coefficients of the transform block generated from the transform unit 105 to generate and output a quantized transform block having quantized transform coefficients.
  • DZUTQ Dead Zone Uniform Threshold Quantization
  • DZUTQ Quantization Weighted Matrix
  • the value calculated by the quantization unit 106 may be provided to the inverse quantization unit 108 and the entropy encoding unit 107.
  • the transform unit 105 and / or the quantization unit 106 may be selectively included in the image encoding apparatus 100. That is, the image encoding apparatus 100 may encode the residual block by performing at least one of transform or quantization on the residual data of the residual block, or skipping both transform and quantization. Even if neither the transformation nor the quantization is performed or neither the transformation nor the quantization is performed in the image encoding apparatus 100, a block entering the input of the entropy encoder 107 is generally referred to as a transform block.
  • the entropy encoder 107 entropy encodes the input data.
  • Entropy encoding may use various encoding methods such as, for example, Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC).
  • Exponential Golomb Context-Adaptive Variable Length Coding
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the entropy coding unit 107 is configured to predict residual code coefficient information, block type information, prediction mode information, split block information, prediction block information and transmission unit information, motion vector information, and reference frame information of a coding block from the prediction units 102 and 103. , Various pieces of information such as interpolation information and filtering information of a block can be encoded.
  • the coefficient of the transform block is a partial block block in the transform block that encodes various types of flags indicating nonzero coefficients, coefficients having an absolute value greater than 1 or 2, and the sign of the coefficient. Can be.
  • Coefficients not encoded with only the flag may be encoded through an absolute value of the difference between the coefficient encoded through the flag and the coefficient of the actual transform block.
  • the inverse quantization unit 108 and the inverse transformer 109 inverse quantize the quantized values in the quantization unit 106 and inverse transform the transformed values in the transformer 105.
  • the residual values generated by the inverse quantizer 108 and the inverse transformer 109 are predicted by the motion estimator, the motion compensator, and the intra prediction unit 102 included in the predictors 102 and 103. It may be combined with the prediction block to generate a reconstructed block.
  • the transcriptor 110 generates a reconstructed block by multiplying the prediction blocks generated by the predictors 102 and 103 and the residual blocks generated by the inverse transform unit 109.
  • the filter unit 111 may include at least one of a deblocking filter, an offset correction unit, and an adaptive loop filter (ALF).
  • ALF adaptive loop filter
  • the deblocking filter may remove block distortion caused by boundaries between blocks in the reconstructed picture.
  • it may be determined whether to apply a deblocking filter to the current block based on the pixels included in several columns or rows included in the block.
  • a strong filter or a weak filter may be applied according to the required deblocking filtering strength.
  • horizontal filtering and vertical filtering may be performed in parallel when vertical filtering and horizontal filtering are performed.
  • the offset correction unit may correct the offset with respect to the original image on a pixel-by-pixel basis for the deblocking image.
  • the pixels included in the image are divided into a predetermined number of areas, and then, an area to be offset is determined, an offset is applied to the corresponding area, or offset considering the edge information of each pixel. You can use this method.
  • Adaptive Loop Filtering may be performed based on a value obtained by comparing the filtered reconstructed image with the original image. After dividing the pixels included in the image into a predetermined group, one filter to be applied to the group may be determined and filtering may be performed for each group. For information related to whether to apply ALF, a luminance signal may be transmitted for each coding unit (CU), and the shape and filter coefficient of an ALF filter to be applied may vary according to each block. In addition, regardless of the characteristics of the block to be applied, the same type (fixed form) of the ALF filter may be applied.
  • ALF Adaptive Loop Filtering
  • the memory 112 may store the reconstructed block or picture calculated by the filter 111, and the stored reconstructed block or picture may be provided to the predictors 102 and 103 when performing inter prediction.
  • FIG. 2 is a block diagram illustrating an image decoding apparatus 200 according to an embodiment of the present invention.
  • the image decoding apparatus 200 may include an entropy decoder 201, an inverse quantizer 202, an inverse transformer 203, an adder 204, a filter 205, a memory 206, and the like.
  • the prediction unit 207 and 208 may be included.
  • the input bitstream may be decoded according to a process opposite to that performed by the image encoding apparatus 100.
  • the entropy decoding unit 201 may perform entropy decoding in a procedure opposite to that of the entropy encoding unit 107 of the image encoding apparatus 100. For example, various methods such as Exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), and Context-Adaptive Binary Arithmetic Coding (CABAC) may be applied to the method performed by the image encoder.
  • the coefficients of the transform block are based on various types of flags indicating non-zero coefficients, coefficients with absolute values greater than 1 or 2, coefficients of coefficients, etc., in units of partial blocks in the transform block. Can be decrypted. Coefficients not represented by the flag alone may be decoded through the sum of the coefficients represented by the flag and the signaled coefficients.
  • the entropy decoder 201 may decode information related to intra prediction and inter prediction performed by the encoder.
  • the inverse quantizer 202 generates a transform block by performing inverse quantization on the quantized transform block. It operates substantially the same as the inverse quantizer 108 of FIG.
  • the inverse transform unit 203 performs an inverse transform on the transform block to generate a residual block.
  • the transformation method may be determined based on information on a prediction method (inter or intra prediction), a size and / or shape of a block, an intra prediction mode, and the like. It operates substantially the same as the inverse transform unit 109 of FIG.
  • the adder 204 generates a reconstructed block by multiplying the prediction block generated by the intra prediction unit 207 or the inter prediction unit 208 and the residual block generated by the inverse transform unit 203. It operates substantially the same as the adder 110 of FIG.
  • the filter unit 205 reduces various kinds of noise generated in the restored blocks.
  • the filter unit 205 may include a deblocking filter, an offset corrector, and an ALF.
  • the image encoding apparatus 100 may receive information about whether a strong filter or a weak filter is applied.
  • the deblocking filter of the image decoding apparatus 200 the deblocking filter related information provided by the image encoding apparatus 100 may be provided, and the image decoding apparatus 200 may perform deblocking filtering on the corresponding block.
  • the offset correction unit may perform offset correction on the reconstructed image based on the type of offset correction and offset value information applied to the image during encoding.
  • the ALF may be applied to a coding unit based on ALF application information, ALF coefficient information, and the like provided from the image encoding apparatus 100. Such ALF information may be provided included in a specific parameter set.
  • the filter unit 205 operates substantially the same as the filter unit 111 of FIG. 1.
  • the memory 206 stores the reconstruction block generated by the adder 204. It operates substantially the same as the memory 112 of FIG.
  • the prediction units 207 and 208 may generate the prediction blocks based on the prediction block generation related information provided by the entropy decoding unit 201 and previously decoded blocks or picture information provided by the memory 206.
  • the prediction units 207 and 208 may include an intra prediction unit 207 and an inter prediction unit 208. Although not separately illustrated, the prediction units 207 and 208 may further include a prediction unit determination unit.
  • the prediction unit determination unit receives various information such as prediction unit information input from the entropy decoder 201, prediction mode information of the intra prediction method, and motion prediction related information of the inter prediction method, and distinguishes the prediction unit from the current coding unit, and predicts It may be determined whether the unit performs inter prediction or intra prediction.
  • the inter prediction unit 208 may include information included in at least one of a previous picture or a subsequent picture of the current picture including the current prediction unit by using information necessary for inter prediction of the current prediction unit provided by the image encoding apparatus 100. Based on the inter prediction on the current prediction unit may be performed. Alternatively, inter prediction may be performed based on information of some regions pre-restored in the current picture including the current prediction unit.
  • Whether the motion prediction method of the prediction block included in the coding block is skip mode, merge mode, or AMVP mode in order to perform inter prediction. Can be determined.
  • the intra prediction unit 207 generates a prediction block using pixels that are located around the block to be currently encoded and are reconstructed.
  • the intra prediction unit 207 may include an adaptive intra smoothing (AIS) filter, a reference pixel interpolator, and a DC filter.
  • the AIS filter is a filter that filters the reference pixels of the current block and can adaptively determine whether to apply the filter according to the prediction mode of the current prediction block.
  • the AIS filtering may be performed on the reference pixel of the current block by using the prediction mode and the AIS filter information of the prediction block provided by the image encoding apparatus 100. If the prediction mode of the current block is a mode that does not perform AIS filtering, the AIS filter may not be applied.
  • the reference pixel interpolation unit of the intra prediction unit 207 interpolates a reference pixel at a fractional position by interpolating the reference pixel when the prediction mode of the prediction block is a prediction block that performs intra prediction based on pixel values interpolating the reference pixel. Can be generated.
  • the generated reference pixel at the fractional unit location may be used as the prediction pixel of the pixel in the current block. If the prediction mode of the current prediction block is the prediction mode for generating the prediction block without interpolating the reference pixel, the reference pixel may not be interpolated.
  • the DC filter may generate the prediction block through filtering when the prediction mode of the current block is the DC mode.
  • the intra prediction unit 207 operates substantially the same as the intra prediction unit 102 of FIG. 1.
  • the inter prediction unit 208 generates an inter prediction block by using the reference picture and the motion information stored in the memory 206.
  • the inter prediction unit 208 operates substantially the same as the inter prediction unit 103 of FIG. 1.
  • the image encoding apparatus may perform two transforms (primary transform and secondary transform) to increase energy concentration of transform coefficients. Accordingly, the image decoding apparatus according to the present invention may also perform two inverse transforms (secondary inverse transform and first inverse transform).
  • the primary transform and the secondary transform may use the same conversion method, or may use different conversion methods.
  • FIG. 3 is a flowchart illustrating a conversion method of an image encoding apparatus according to the present invention.
  • the image encoding apparatus may perform first-order transform on a residual block in units of transform blocks (S301).
  • the image encoding apparatus may perform second-order transform on transform coefficients of a transform block on which the first-order transform is performed.
  • the secondary transform may be performed only on all or some regions of the transform block in which the primary transform is performed.
  • FIG. 4 is a flowchart illustrating a conversion method of an image decoding apparatus according to the present invention.
  • the image decoding apparatus may perform second order inverse transform on an inverse quantized block.
  • the image decoding apparatus may perform the first inverse transform on the second inverse transformed block.
  • FIGS. 9 and 10 are diagrams for explaining a method of determining a transform performing region based on a frequency domain of a transform block. .
  • FIG. 5 is a flowchart illustrating a method of determining a transform performing region based on an intra prediction mode.
  • step S501 it is determined whether the intra prediction mode of the prediction block corresponding to the current transform block is the horizontal prediction mode.
  • the horizontal prediction mode may mean at least one intra prediction mode that performs intra prediction using reference pixels of a left region of the prediction block.
  • 6 is a diagram for describing a lateral prediction mode according to an exemplary embodiment.
  • H Above mode refers to a prediction mode having maximum index information among intra prediction modes within a horizontal prediction mode range
  • H Bottom mode refers to intra prediction modes within a horizontal prediction range. Among these, it may mean a prediction mode having minimum index information. Therefore, the angle prediction modes between the H Above mode and the H Bottom mode may mean a horizontal prediction mode.
  • operation S502 may be performed.
  • the second transform performing region may be determined as the left region in the current transform block.
  • operation S503 may be performed.
  • the vertical prediction mode may mean at least one intra prediction mode for performing intra prediction using a reference pixel of an upper region of the prediction block.
  • 7 is a diagram for describing a portrait prediction mode according to an exemplary embodiment.
  • V left mode refers to a prediction mode having minimum index information among intra prediction modes belonging to a vertical prediction mode range
  • V right mode refers to intra prediction modes belonging to a vertical prediction range.
  • it may mean a prediction mode having the maximum index information. Therefore, the angle prediction modes between the V left mode and the V right mode may mean a vertical prediction mode.
  • step S504 when the intra prediction mode of the prediction block corresponding to the current transform block is the vertical prediction mode (S503-Yes), step S504 may be performed.
  • the second transform performing region may be determined as an upper region in the current transform block.
  • operation S505 may be performed.
  • the second transform performing region may be determined as an upper left region in the current transform block.
  • FIG. 8 is a diagram for describing a left region, an upper region, and an upper left region in a current transform block according to an embodiment of the present invention.
  • the left region is a 1/4 left region 801 or 1/2 left region ( 802).
  • the upper region may be a quarter upper region 803 or a half upper region 804 of the transform block.
  • the upper left region may be a quarter upper left region 805 or a half upper left region 806 of the transform block.
  • FIG. 9 is a flowchart illustrating a method of determining a transform performing region based on a frequency region of a transform block.
  • a low frequency region within a transform block is determined according to a transform basis.
  • the low frequency region in the transform block may vary depending on the transform basis.
  • the second transform performing region may be determined as a low frequency region within the transform block.
  • the frequency range specifying the low frequency region may be fixed to the image encoding apparatus and the image decoding apparatus in the same manner.
  • the image encoding apparatus may transmit additional information to the image decoding apparatus to determine a frequency range for specifying the low frequency region.
  • FIG. 10 is a diagram illustrating an example of determining a transform performing region based on a frequency region of a transform block.
  • the low frequency region of the transform block after the first transform may be an upper left region in the transform block.
  • the low frequency region of the transform block after inverse quantization in the image decoding apparatus may be an upper left region in the transform block.
  • FIG. 10 shows a quadratic transformation execution region under the above assumption.
  • the image encoding apparatus / image decoding apparatus may determine an upper left 1/16 region of a transform block as a low frequency region, and determine a corresponding region as a secondary transform performing region (1001).
  • the image encoding apparatus / image decoding apparatus may determine the upper left quarter region of the transform block as the low frequency region, and determine the corresponding region as the secondary transform performing region (1002).
  • FIGS. 5 to 10 a method of determining a transform performing region in which a secondary transform or a secondary inverse transform is performed has been described.
  • the present invention is not limited thereto, and a transform performing region in which a primary transform or a primary inverse transform is performed may be determined. have.
  • the transform execution region may be determined as the entire transform block.
  • the image encoding apparatus and the image decoding apparatus may determine the secondary transform performing region and the second inverse transform performing region in the same manner as described above, but encode the secondary transform performing region information determined by the above method in the image encoding apparatus. It can also be transmitted to the video decoding apparatus. In this case, the information may be transmitted at a higher level (video layer, sequence layer, picture layer, slice layer, coding block layer, etc.) or in units of transform blocks.
  • the transform block divided from the higher transform block is defined as a sub transform block.
  • 11 and 12 are diagrams for describing quad tree division of a transform block.
  • the entire transform block may mean a transform block having the highest split depth
  • the current sub transform block means a sub transform block currently being encoded
  • the current partial block is the current encoding among the partial blocks split from the current sub transform block. It can mean a partial block being used.
  • the entire transform block may be set as the current sub transform block.
  • quadtree split information of the current sub-conversion block may be encoded.
  • the quadtree split information coded in the current sub transform block is false (S1103-No)
  • the quadtree split coding process may be terminated.
  • step S1104 may be performed.
  • four partial blocks may be generated by quadtree dividing the current sub-conversion block.
  • quadtree split information of a partial block currently being encoded (hereinafter, referred to as a current partial block) may be encoded in the encoding order of the partial blocks split from the current sub-transform block.
  • step S1109 may be performed.
  • operation S1109 it may be determined whether the current partial block is a partial block corresponding to the last encoding order in all of the transform blocks.
  • the quadtree split encoding process may be terminated.
  • the current sub-block is set as the current partial block of the upper depth in step S1110, and then the step S1105 is performed.
  • the quadtree splitting information encoding process of the partial block of the next encoding order of the current partial block of the higher depth may be performed.
  • step S1107 when the current partial block is not the partial block corresponding to the last coding order in the current sub-transition block in step S1106 (S1106-no), it is determined whether the quadtree split information of the corresponding partial block is true or false. can do. If the information is false (S1107-No), the process returns to step S1105 to perform the partial block quadtree split information encoding process of the next coding order of the current partial block.
  • the current partial block may be set as the current sub-conversion block of the lower depth in step S1108, and the process may be returned to step S1104.
  • the maximum / minimum size of the transform block capable of quadtree partitioning, the maximum depth capable of quadtree partitioning, and the depth that can be split in the current transform block are fixed to the image encoding apparatus and the image decoding apparatus in the same manner or higher in the image encoding apparatus. It may be transmitted to the image decoding apparatus through a header (slice layer, picture layer, sequence layer, video layer, etc.).
  • FIG. 12 is a flowchart illustrating a method of quadtree dividing a transform block into sub transform blocks by decoding quadtree split information.
  • an entire transform block may be set as a current sub transform block.
  • quadtree partitioning information in the current sub-conversion block may be decoded.
  • the quadtree split coding process may be terminated.
  • step S1204 may be performed.
  • quadtree split information of a partial block (hereinafter, referred to as a current partial block) currently being decoded may be encoded in decoding order of the partial blocks split from the current sub-transform block.
  • step S1209 may be performed.
  • operation S1209 it may be determined whether the current partial block is a partial block corresponding to the last decoding order in all of the transform blocks.
  • the quadtree split decoding process can be ended.
  • the current sub-block is set as the current partial block of the upper depth in step S1210, and then the step S1205 is performed.
  • the quadtree splitting information encoding process of the partial block of the next decoding order of the current partial block of the higher depth may be performed.
  • step S1207 when the current partial block is not the partial block corresponding to the last decoding order in the current sub-transition block in step S1206 (S1206-No), it is determined whether the quadtree split information of the corresponding partial block is true or false. can do. If the corresponding information is false (S1207-No), the process returns to step S1205 to perform the decoding process of the partial block quadtree partition information of the next decoding order of the current partial block.
  • the current partial block may be set as the current sub-conversion block of the lower depth in step S1208, and the process may be returned to step S1204.
  • 13 and 14 are diagrams for describing binary tree splitting of a transform block.
  • FIGS. 13 and 14 are the same in the remaining series except that the quadtree splitting is changed to binary tree splitting and the quadtree splitting information is changed to binary tree splitting in FIG. 11 and 12. Therefore, description of FIGS. 13 and 14 will be omitted.
  • FIG. 15 is a diagram illustrating an example in which a transform performing region is divided into partial transform blocks using quadtree partitioning and binary tree partitioning.
  • the transform performing region may mean an entire transform block.
  • FIG. 15 it is assumed that the transform performing region is determined as the upper left end of the current block.
  • 1501 illustrates a form of a partial transform block partitioned by splitting an entire transform block using only a quadtree partitioning method
  • 1502 indicates a partial transform block partitioned by splitting an entire transform block using only a binary tree partitioning method. It shows the form of
  • 1503 illustrates a form of a partial transform block divided by dividing the entire transform block into a quadtree splitting method and a binary tree splitting method.
  • the image encoding apparatus and the image decoding apparatus may determine the split type of the transform block based on the size of the entire transform block in the transform performing region.
  • the transform may be performed only on the upper left 8x8 sub transform block. Otherwise, the transform may be performed only on the upper left 4x4 sub transform block. .
  • the transform or inverse transform may be performed in units of the sub transform block.
  • a coefficient scan method and a reordering method that may be performed before or after performing the secondary transform on a sub transform block basis in the secondary transform performing region will be described.
  • the secondary transform performing region and the secondary transform may be a concept including a secondary inverse transform performing region and a secondary inverse transform.
  • 16 illustrates an example of a method of scanning and rearranging a 2D sub-conversion block when a 2D sub-conversion block is changed to a 1D sub-conversion block to perform a 1D transform method instead of a 2D transform method.
  • 1601 illustrates a method of scanning a 2D sub-transform block on which the first-order transform is performed before performing the secondary transform in a vertical direction and realigning the 1D sub-transform block.
  • the vertical scan order is C00, C10, C20, C01,... , C23, C33, and can be mapped to the 1D sub-conversion block in the same order.
  • 1602 illustrates a method of scanning the 2D sub-transform block on which the primary transform is performed before performing the secondary transform in a horizontal direction and realigning the 1D sub-transform block.
  • the horizontal scan order is C00, C01, C02, C03, C10,... , C32, C33, and can be mapped to the 1D sub-conversion block in the same order.
  • 1603 illustrates a method of scanning the 2D sub-transform block in which the first-order transform is performed before the second transform is performed in a 45-degree diagonal direction and rearranging the 1D sub-transform block.
  • the 45-degree diagonal scan order is C00, C10, C01, C20, C11,... , C23, C33, and can be mapped to the 1D sub-conversion block in the same order.
  • 17 shows an example of a method of scanning and rearranging a 2D sub-conversion block.
  • 1701 illustrates a method of rearranging a 2D sub-transform block in which a second-order transform is performed after performing the secondary transform in a vertical direction and realigning the 2D sub-transform block.
  • the vertical scan order is C00, C10, C20, C01,... , C23, C33, and can be mapped to the 2D sub-conversion block in the same order.
  • 1702 illustrates a method of scanning in the horizontal direction the 2D sub-transform block in which the secondary transform is performed, after the secondary transform is performed, and realigning the 2D sub-transform block.
  • the horizontal scan order is C00, C01, C02, C03, C10,... , C32, C33, and can be mapped to the 2D sub-conversion block in the same order.
  • the 1703 illustrates a method of scanning the 2D sub-conversion block on which the second-order transform is performed after the second-order transform is performed in a 45-degree diagonal direction and realigning the 2D sub-transformation block.
  • the 45-degree diagonal scan order is C00, C10, C01, C20, C11,... , C23, C33, and can be mapped to the 2D sub-conversion block in the same order.
  • the method described with reference to FIG. 17 may be performed before the second order transform.
  • the scanning method of FIGS. 16 and 17 may use various scanning methods in addition to the vertical direction, the horizontal direction, and the 45-degree diagonal direction.
  • the second or second inverse transform has been described as an example in FIGS. 16 and 17, the above-described method may also be applied to the first and first inverse transforms.
  • the scan method in the coefficient scan method of the sub transform block, may be performed in units of sub transform blocks according to a prediction mode.
  • FIG. 18 is a flowchart illustrating a method of determining a sub transform block scanning method according to a prediction mode performed for generating a current transform block.
  • a prediction mode performed for generating a current transform block is one of horizontal prediction modes among intra prediction modes.
  • the sub-conversion block scanning method may be determined as the vertical scanning method.
  • the sub-conversion block scanning method may be determined by a horizontal scanning method.
  • the sub-conversion block scanning method may be determined as a 45-degree diagonal scanning method. That is, in operation S1805, when the prediction mode performed for generating the current transform block does not belong to the vertical prediction modes and the horizontal prediction modes among the intra prediction modes, the sub-transform block scanning method uses a 45-degree diagonal scan method. You can decide.
  • a scan method in the coefficient scan method of a sub transform block, may be performed in units of sub transform blocks according to a transform basis.
  • 19 is a view for explaining a method of determining a sub transform block scanning method according to a transform basis.
  • the upper left sub transform block may be a 45 degree diagonal scan method, and the other sub transform blocks may be determined by a vertical scan method.
  • the image encoding apparatus may determine an optimal scan method through the RDO for each sub-conversion block, and then encode the optimal scan method and transmit the encoded scan method to the image decoding apparatus.
  • 20 is a flowchart illustrating an image decoding method according to an embodiment of the present invention.
  • the image decoding apparatus may determine a conversion performing region (S2001).
  • the image decoding apparatus may determine the transform performing region based on the intra prediction mode of the current prediction block corresponding to the current transform block.
  • the intra prediction mode of the current prediction block is the horizontal prediction mode
  • the image decoding apparatus determines a left region of the current transform block as the transform performing region, and the intra prediction mode of the current prediction block is the vertical prediction.
  • the upper region of the current transform block is determined as the transform performing region, and when the intra prediction mode of the current prediction block is not the horizontal prediction mode and the vertical prediction mode, the upper left region of the current transform block is the transform performing region. Can be determined.
  • the image decoding apparatus may determine a transform performing region based on a specific frequency region of the current transform block.
  • the specific frequency region may be determined based on a predefined value.
  • the image decoding apparatus may divide the determined transform performing region into at least one sub transform block using at least one of quadtree partitioning and binary tree partitioning (S2002).
  • the image decoding apparatus may perform inverse transformation on at least one sub-conversion block.
  • the inverse transform may be one of a first order inverse transform and a second order inverse transform.
  • the at least one sub transform block may be a 2D sub transform block.
  • the image decoding apparatus may further perform a step of determining a coefficient scan method of the sub transform block and a rearrangement of the 2D sub transform block based on the determined coefficient scan method.
  • the image decoding apparatus may determine a coefficient scan method of the sub transform block based on the intra prediction mode of the current prediction block corresponding to the current transform block.
  • the image decoding method described above with reference to FIG. 20 may be performed in the same manner as the image encoding method of the image encoding apparatus.
  • the inverse transform can be changed to a transform.
  • Exemplary methods of the present disclosure are represented as a series of operations for clarity of description, but are not intended to limit the order in which the steps are performed, and each step may be performed simultaneously or in a different order as necessary.
  • the illustrated step may further include other steps, may include other steps except some, or may include additional other steps except some.
  • various embodiments of the present disclosure may be implemented by hardware, firmware, software, or a combination thereof.
  • one or more Application Specific Integrated Circuits (ASICs), Digital Signal Processors (DSPs), Digital Signal Processing Devices (DSPDs), Programmable Logic Devices (PLDs), Field Programmable Gate Arrays (FPGAs), General Purpose It may be implemented by a general processor, a controller, a microcontroller, a microprocessor, and the like.
  • scope of the disclosure include software or machine-executable instructions (eg, an operating system, an application, firmware, a program, etc.) to cause an operation in accordance with various embodiments of the method to be executed on an apparatus or a computer, and such software or Instructions, and the like, including non-transitory computer-readable media that are stored and executable on a device or computer.
  • software or machine-executable instructions eg, an operating system, an application, firmware, a program, etc.
  • the present invention can be used in an apparatus for encoding / decoding an image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Discrete Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 영상 부호화 방법 및 영상 복호화 방법을 제공한다. 본 발명의 영상 복호화 방법은, 변환 수행 영역을 결정하는 단계, 상기 결정된 변환 수행 영역을 쿼드트리 분할 및 이진트리 분할 중 적어도 하나를 이용하여 적어도 하나의 서브 변환 블록으로 분할하는 단계 및 상기 적어도 하나의 서브 변환 블록에 역변환을 수행하는 단계를 포함한다.

Description

영상 부호화 방법/장치, 영상 복호화 방법/장치 및 비트스트림을 저장한 기록 매체
본 발명은 영상 부호화/복호화 방법 및 장치에 관한 것으로, 상세하게는 2차 변환을 수행할 영역 및 그 영역의 서브 변환 블록의 분할 형태를 적응적으로 결정할 수 있는 영상 부호화 방법 및 영상 복호화 방법에 관한 것이다.
최근, 인터넷에서는 동영상과 같은 멀티미디어 데이터의 수요가 급격히 증가하고 있다. 하지만 채널(Channel)의 대역폭(Bandwidth)이 발전하는 속도는 급격히 증가하고 있는 멀티미디어 데이터의 양을 따라가기 힘든 상황이다. 이러한 추세의 일환으로 국제 표준화 기구인 ITU-T의 VCEG(Video Coding Expert Group)과 ISO/IEC의 MPEG(Moving Picture Expert Group)에서는 꾸준한 공동 연구를 통하여 동영상 압축 표준을 연구하는 중이다.
동영상 압축은 크게 화면 내 예측, 화면 간 예측, 변환, 양자화, 엔트로피(Entropy coding) 부호화, 인루프 필터(In-loop filter)로 구성된다. 이 중, 변환은 입력 신호를 다른 영역의 신호로 변환하여 부호화하는 기술을 의미한다.
종래의 영상의 부호화/복호화 방법 및 장치는 변환에 있어서 변환 수행 영역을 별도로 결정하지 않고 사용하여 부호화 효율 향상에 한계가 있었다.
본 발명은 압축 효율이 개선된 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.
또한, 본 발명은 영상의 부호화/복호화 효율을 개선하기 위해 변환 블록에서 변환을 수행할 영역과 변환 수행 영역 내에서 서브 변환 블록의 분할 형태를 적응적으로 결정하는 영상 부호화/복호화 방법를 제공할 수 있다.
또한, 본 발명은 영상의 부호화/복호화 효율을 개선하기 위해 변환 수행 영역 내의 서브 변환 블록의 스캔 방식을 적응적으로 결정하는 영상 부호화/복호화 방법을 제공하는 것을 목적으로 한다.
본 발명에 따른, 영상 복호화 방법은, 변환 수행 영역을 결정하는 단계; 상기 결정된 변환 수행 영역을 쿼드트리 분할 및 이진트리 분할 중 적어도 하나를 이용하여 적어도 하나의 서브 변환 블록으로 분할하는 단계 및 상기 적어도 하나의 서브 변환 블록에 역변환을 수행하는 단계를 포함할 수 있다.
상기 영상 복호화 방법에 있어서, 상기 변환 수행 영역을 결정하는 단계는, 현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드에 기초하여 상기 변환 수행 영역을 결정할 수 있다.
상기 영상 복호화 방법에 있어서, 상기 변환 수행 영역을 결정하는 단계는, 상기 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드인 경우, 상기 현재 변환 블록의 좌측 영역을 상기 변환 수행 영역으로 결정하고, 상기 현재 예측 블록의 화면 내 예측 모드가 세로 방향 예측 모드인 경우, 상기 현재 변환 블록의 상단 영역을 상기 변환 수행 영역으로 결정하고, 상기 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드 및 세로 방향 예측 모드가 아닌 경우, 상기 현재 변환 블록의 좌상단 영역을 상기 변환 수행 영역으로 결정할 수 있다.
상기 영상 복호화 방법에 있어서, 상기 변환 수행 영역을 결정하는 단계는, 현재 변환 블록의 특정 주파수 영역에 기초하여 상기 변환 수행 영역을 결정할 수 있다.
상기 영상 복호화 방법에 있어서, 상기 특정 주파수 영역은, 기 정의된 값을 기초하여 결정될 수 있다.
상기 영상 복호화 방법에 있어서, 상기 역변환은, 1차 역변환 및 2차 역변환 중 어느 하나일 수 있다.
상기 영상 복호화 방법에 있어서, 상기 적어도 하나의 서브 변환 블록은 2D 서브 변환 블록일 수 있다.
상기 영상 복호화 방법에 있어서, 상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계; 및 상기 결정된 계수 스캔 방법에 기초하여 상기 2D 서브 변환 블록을 재정렬하는 단계를 더 포함할 수 있다.
상기 영상 복호화 방법에 있어서, 상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계는, 현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드에 기초하여 상기 서브 변환 블록의 계수 스캔 방법을 결정할 수 있다.
상기 영상 복호화 방법에 있어서, 상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계는, 수직 방향 스캔, 수평 방향 스캔 및 45도 대각 방향 스캔 중 어느 하나의 스캔 방법으로 결정할 수 있다.
상기 영상 복호화 방법에 있어서, 상기 결정된 계수 스캔 방법에 기초하여 상기 2D 서브 변환 블록을 재정렬하는 단계는, 상기 2D 서브 변환 블록을 상기 결정된 계수 스캔 방법에 기초하여 1D 서 변환 블록으로 재정렬할 수 있다.
본 발명에 따른, 영상 부호화 방법은, 변환 수행 영역을 결정하는 단계; 상기 결정된 변환 수행 영역을 쿼드트리 분할 및 이진트리 분할 중 적어도 하나를 이용하여 적어도 하나의 서브 변환 블록으로 분할하는 단계 및 상기 적어도 하나의 서브 변환 블록에 변환을 수행하는 단계를 포함할 수 있다.
상기 영상 부호화 방법에 있어서, 상기 변환 수행 영역을 결정하는 단계는, 현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드에 기초하여 상기 변환 수행 영역을 결정할 수 있다.
상기 영상 부호화 방법에 있어서, 상기 변환 수행 영역을 결정하는 단계는, 상기 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드인 경우, 상기 현재 변환 블록의 좌측 영역을 상기 변환 수행 영역으로 결정하고, 상기 현재 예측 블록의 화면 내 예측 모드가 세로 방향 예측 모드인 경우, 상기 현재 변환 블록의 상단 영역을 상기 변환 수행 영역으로 결정하고, 상기 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드 및 세로 방향 예측 모드가 아닌 경우, 상기 현재 변환 블록의 좌상단 영역을 상기 변환 수행 영역으로 결정할 수 있다.
상기 영상 부호화 방법에 있어서, 상기 변환 수행 영역을 결정하는 단계는, 현재 변환 블록의 특정 주파수 영역에 기초하여 상기 변환 수행 영역을 결정할 수 있다.
상기 영상 부호화 방법에 있어서, 상기 특정 주파수 영역은, 기 정의된 값을 기초하여 결정될 수 있다.
상기 영상 부호화 방법에 있어서, 상기 변환은, 1차 변환 및 2차 변환 중 어느 하나일 수 있다.
상기 영상 부호화 방법에 있어서, 상기 적어도 하나의 서브 변환 블록은 2D 서브 변환 블록일 수 있다.
상기 영상 부호화 방법에 있어서, 상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계; 및 상기 결정된 계수 스캔 방법에 기초하여 상기 2D 서브 변환 블록을 재정렬하는 단계를 더 포함할 수 있다.
상기 영상 부호화 방법에 있어서, 상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계는, 현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드에 기초하여 상기 서브 변환 블록의 계수 스캔 방법을 결정할 수 있다.
상기 영상 부호화 방법에 있어서, 상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계는, 수직 방향 스캔, 수평 방향 스캔 및 45도 대각 방향 스캔 중 어느 하나의 스캔 방법으로 결정할 수 있다.
상기 영상 부호화 방법에 있어서, 상기 결정된 계수 스캔 방법에 기초하여 상기 2D 서브 변환 블록을 재정렬하는 단계는, 상기 2D 서브 변환 블록을 상기 결정된 계수 스캔 방법에 기초하여 1D 서 변환 블록으로 재정렬할 수 있다.
본 발명에 따른, 기록 매체는, 변환 수행 영역을 결정하는 단계; 상기 결정된 변환 수행 영역을 쿼드트리 분할 및 이진트리 분할 중 적어도 하나를 이용하여 적어도 하나의 서브 변환 블록으로 분할하는 단계 및 상기 적어도 하나의 서브 변환 블록에 변환을 수행하는 단계를 포함하는 영상 부호화 방법에 의해 생성된 비트스트림을 저장할 수 있다.
본 발명에 따르면, 압축 효율이 향상된 영상 부호화/복호화 방법 및 장치를 제공될 수 있다.
또한, 본 발명에 따르면, 영상의 부호화/복호화 효율을 개선하기 위해 변환 블록에서 변환을 수행할 영역과 변환 수행 영역 내에서 서브 변환 블록의 분할 형태를 적응적으로 결정하는 영상 부호화/복호화 방법이 제공될 수 있다.
또한, 본 발명에 따르면, 영상의 부호화/복호화 효율을 개선하기 위해 변환 수행 영역 내의 서브 변환 블록의 스캔 방식을 적응적으로 결정하는 영상 부호화/복호화 방법이 제공될 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상 부호화 장치를 간략하게 나타낸 블록 구성도이다.
도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치를 간략하게 나타낸 블록 구성도이다.
도 3은 본 발명의 일 실시 예에 따른 영상 부호화 장치의 변환 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시 예에 따른 영상 복호화 장치의 변환 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시 예에 따른 화면 내 예측 모드에 기초한 변환 수행 영역의 결정 방법을 나타내는 흐름도이다.
도 6은 본 발명의 일 실시 예에 따른 가로 방향 예측 모드를 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예에 따른 세로 방향 예측 모드를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 현재 변환 블록내의 좌측 영역, 상단 영역 및 좌상단 영역을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 변환 블록의 주파수 영역에 기초한 변환 수행 영역의 결정 방법을 나타내는 흐름도이다.
도 10은 변환 블록의 주파수 영역에 기초한 변환 수행 영역을 결정한 예시를 나타내는 도면이다.
도 11 및 도 12는 본 발명의 일 실시 예에 따른 변환 블록의 쿼드트리 분할을 설명하기 위한 흐름도이다.
도 13 및 도 14는 본 발명의 일 실시 예에 따른 변환 블록의 이진트리 분할을 설명하기 위한 흐름도이다.
도 15는 쿼드트리 분할과 이진트리 분할을 이용하여 변환 수행 영역이 부분 변환 블록으로 분할된 예시를 나타낸 도면이다.
도 16은 2D 변환 방법이 아닌 1D 변환 방법을 수행하기 위하여 2D 서브 변환 블록을 1D 서브 변환 블록으로 변경할 때, 2D 서브 변환 블록을 스캔하는 방법과 재정렬하는 방법의 예시를 나타낸다.
도 17은 2D 서브 변환 블록을 스캔하는 방법과 재정렬하는 방법의 예시를 나타낸다.
도 18은 본 발명의 일 실시 예에 따른 현재 블록의 예측 모드에 기초하여 서브 변환 블록의 스캔 방법을 결정하는 방법을 설명한 흐름도이다.
도 19는 본 발명의 일 실시 예에 따른 변환 기저에 기초하여 서브 변환 블록 스캔 방법을 결정하는 방법을 설명한 도면이다.
도 20은 본 발명의 일 실시 예에 따른 영상 복호화 방법을 도시한 흐름도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다거나 "직접 접속되어"있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 첨부한 도면들을 참조하여, 본 발명의 실시예들을 상세하게 설명한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일실시예에 따른 영상 부호화 장치를 나타낸 블록도이다.
도 1을 참조하면, 영상 부호화 장치(100)는 영상 분할부(101), 화면 내 예측부(102), 화면 간 예측부(103), 감산부(104), 변환부(105), 양자화부(106), 엔트로피 부호화부(107), 역양자화부(108), 역변환부(109), 가산부(110), 필터부(111) 및 메모리(112)를 포함할 수 있다.
도 1에 나타난 각 구성부들은 영상 부호화 장치에서 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시한 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리범위에 포함된다.
또한, 일부의 구성 요소는 본 발명에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 발명은 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 발명의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 발명의 권리범위에 포함된다.
영상 분할부(100)는 입력된 영상을 적어도 하나의 블록으로 분할할 수 있다. 이 때, 입력된 영상은 픽처, 슬라이스, 타일, 세그먼트 등 다양한 형태와 크기를 가질 수 있다. 블록은 부호화 단위(CU), 예측 단위(PU) 또는 변환 단위(TU)를 의미할 수 있다.
영상 분할부(100)는 최대 크기의 부호화 블록(이하, 최대 부호화 블록이라 함)으로부터 최소 크기의 부호화 블록(이하, 최소 부호화 블록이라 함)으로 분할을 수행할 수 있다. 상기 분할은 쿼드 트리(Quadtree) 또는 바이너리 트리(Biniary tree) 중 적어도 하나에 기반하여 수행될 수 있다. 쿼드 트리는 상위 블록을 너비와 높이가 상위 블록의 절반인 하위 블록으로 사분할하는 방식이다. 바이너리 트리는 상위 블록을 너비 또는 높이 중 어느 하나가 상위 블록의 절반인 하위 블록으로 이분할하는 방식이다. 전술한 바이너리 트리 기반의 분할을 통해, 블록은 정방형뿐만 아니라 비정방형의 형태를 가질 수 있다.
이하, 본 발명의 실시예에서는 부호화 단위는 부호화를 수행하는 단위의 의미로 사용할 수도 있고, 복호화를 수행하는 단위의 의미로 사용할 수도 있다. 그리고, 부호화 단위는 부호화 블록을 의미할 수 있다.
예측부(102, 103)는 인터 예측을 수행하는 화면 간 예측부(103)와 인트라 예측을 수행하는 화면 내 예측부(102)를 포함할 수 있다. 예측부(102, 103)는 현재 원본 블록에서 현재 예측 하고자 하는 블록(이하, 예측 블록이라 함)의 주변 화소나 이전에 이미 복호화가 끝난 참조 픽쳐를 이용하여 예측 블록을 생성할 수 있다. 여기서, 예측 블록은 부호화 블록 내에서 적어도 하나의 예측 블록들이 생성될 수 있다. 부호화 블록 내 예측 블록이 1개일 경우, 예측 블록은 부호화 블록과 동일한 형태일 수 있다.
동영상 신호의 예측 기술에는 크게 화면 내 예측과 화면 간 예측으로 구성 되어 있는데, 화면 내 예측은 현재 블록의 주변 화소들을 이용하여 예측 블록을 생성하는 방식이고, 화면 간 예측은 이전에 이미 부호화 및 복호화가 끝난 참조 픽쳐에서 현재 블록과 가장 유사한 블록을 찾아서 예측 블록을 생성하는 방식이다.
예측부(102, 103)는 현재 원본 블록에서 예측 블록을 뺀 잔차 블록을 율-왜곡 최적화(RDO: Rate-Distortion Optimization) 등 다양한 기법을 이용하여 예측 블록의 최적 예측 모드를 결정할 수 있다. RDO 식은 아래 수학식 1과 같다.
Figure PCTKR2017011215-appb-M000001
여기서, D는 양자화에 의한 열화, R은 압축 스트림의 레이트, J는 RD 비용이고, Φ는 부호화 모드, λ는 라그랑지안 승수(Lagranginan multiplier)로 에러의 양과 비트량 간의 단위를 일치시키기 위한 스케일 보정용 계수일 수 있다.
생성된 예측 블록과 원본 블록 사이의 잔차값(잔차 블록)은 변환부(105)로 입력될 수 있다. 또한, 예측을 위해 사용한 예측 모드 정보, 모션 벡터 정보 등은 잔차값과 함께 엔트로피 부호화부(107)에서 부호화되어 복호화기에 전달될 수 있다. 특정한 부호화 모드를 사용할 경우, 예측부(102, 103)를 통해 예측 블록을 생성하지 않고, 원본 블록을 그대로 부호화하여 복호화부에 전송하는 것도 가능하다.
화면 내 예측부(102)는 현재 픽쳐 내의 화소 정보인 현재 블록 주변의 참조 픽셀 정보를 기초로 예측 블록을 생성할 수 있다. 인트라 예측이 수행될 현재 블록의 주변 블록의 예측 모드가 인터 예측인 경우, 인터 예측이 적용된 주변 블록에 포함되는 참조 픽셀을, 인트라 예측이 적용된 주변의 다른 블록 내의 참조 픽셀로 대체될 수 있다. 즉, 참조 픽셀이 가용하지 않는 경우, 가용하지 않은 참조 픽셀 정보를, 가용한 참조 픽셀 중 적어도 하나의 참조 픽셀로 대체하여 사용할 수 있다.
인트라 예측에서 예측 모드는 참조 픽셀 정보를 예측 방향에 따라 사용하는 방향성 예측 모드와 예측을 수행시 방향성 정보를 사용하지 않는 비방향성 모드를 가질 수 있다. 휘도 정보를 예측하기 위한 모드와 색차 정보를 예측하기 위한 모드가 상이할 수 있고, 색차 정보를 예측하기 위해 휘도 정보를 예측하기 위해 사용된 인트라 예측 모드 정보 또는 예측된 휘도 신호 정보를 활용할 수 있다.
화면 간 예측부(103)는 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐의 정보를 기초로 예측 블록을 생성할 수 있고, 경우에 따라서는 현재 픽쳐 내의 부호화가 완료된 일부 영역의 정보를 기초로 예측 블록을 생성할 수 있다. 화면 간 예측부(103)는 참조 픽쳐 보간부, 모션 예측부, 움직임 보상부를 포함할 수 있다.
감산부(104)는, 현재 부호화하려는 블록과 화면 내 예측부(102) 혹은 화면 간 예측부(103)에서 생성된 예측 블록을 감산하여 현재 블록의 잔차 블록을 생성할 수 있다.
변환부(105)에서는 잔차 데이터를 포함한 잔차 블록에 DCT, DST, KLT(Karhunen Loeve Transform) 등과 같은 변환 방법을 적용하여 변환 블록을 생성할 수 있다. 변환 블록은 변환 및 양자화 과정을 위해 사용되는 단위일 수 있다. 잔차 블록 전체에 대해 변환을 수행하거나, 잔차 블록을 서브 블록 단위로 분할하여 변환을 수행할 수 있다. 이때, 변환 블록을 위한 분할 방식으로 쿼드 트리 또는 바이너리 트리 기반의 분할 방식이 사용될 수 있다.
한편, 변환 방법은 잔차 블록을 생성하기 위해 사용된 예측 블록의 인트라 예측 모드에 기반하여 결정될 수 있다. 예를 들어, 인트라 예측 모드에 따라, 가로 방향으로는 DCT를 사용하고, 세로 방향으로는 DST를 사용할 수도 있다.
양자화부(106)는 변환부(105)에서 주파수 영역으로 변환된 변환 블록들을 양자화하여 양자화된 변환 블록을 생성할 수 있다. 블록에 따라 또는 영상의 중요도에 따라 양자화 계수는 변할 수 있다.
양자화부(106)는 변환부(105)로부터 생성되는 변환 블록의 변환 계수들을 양자화 하여 양자화된 변환 계수를 가지는 양자화된 변환 블록(Quantized Transform Coefficient)를 생성하여 출력할 수 있다. 여기서, 양자화 방법으로는 데드존 균일 경계 양자화(DZUTQ: Dead Zone Uniform Threshold Quantization) 또는 양자화 가중치 행렬 (Quantization Weighted Matrix) 등이 이용될 수 있다.
양자화부(106)에서 산출된 값은 역양자화부(108)와 엔트로피 부호화부(107)에 제공될 수 있다.
상기 변환부(105) 및/또는 양자화부(106)는, 영상 부호화 장치(100)에 선택적으로 포함될 수 있다. 즉, 영상 부호화 장치(100)는, 잔차 블록의 잔차 데이터에 대해 변환 또는 양자화 중 적어도 하나를 수행하거나, 변환 및 양자화를 모두 스킵하여 잔차 블록을 부호화할 수 있다. 영상 부호화 장치(100)에서 변환 또는 양자화 중 어느 하나가 수행되지 않거나, 변환 및 양자화 모두 수행되지 않더라도, 엔트로피 부호화부(107)의 입력으로 들어가는 블록을 통상적으로 변환 블록이라 일컫는다.
엔트로피 부호화부(107)는 입력 데이터를 엔트로피 부호화한다. 엔트로피 부호화는 예를 들어, 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 부호화 방법을 사용할 수 있다.
엔트로피 부호화부(107)는 예측부(102, 103)로부터 부호화 블록의 잔차값 계수 정보 및 블록 타입 정보, 예측 모드 정보, 분할 블록 정보, 예측 블록 정보 및 전송 단위 정보, 모션 벡터 정보, 참조 프레임 정보, 블록의 보간 정보, 필터링 정보 등 다양한 정보를 부호화할 수 있다. 엔트로피 부호화부(107)에서, 변환 블록의 계수는, 변환 블록 내 부분 블록 블록으로, 0이 아닌 계수, 절대값이 1 또는 2보다 큰 계수, 그리고 계수의 부호 등을 나타내는 여러 종류의 플래그를 부호화될 수 있다. 상기 플래그만으로 부호화되지 않는 계수는, 플래그를 통해 부호화된 계수와 실제 변환 블록의 계수 간의 차이의 절대값을 통해 부호화될 수 있다. 역양자화부(108) 및 역변환부(109)에서는 양자화부(106)에서 양자화된 값들을 역양자화하고 변환부(105)에서 변환된 값들을 역변환한다. 역양자화부(108) 및 역변환부(109)에서 생성된 잔차값(Residual)은 예측부(102, 103)에 포함된 움직임 추정부, 움직임 보상부 및 화면 내 예측부(102)를 통해서 예측된 예측 블록과 합쳐져 복원 블록(Reconstructed Block)을 생성할 수 있다. 증산기(110)는, 예측부(102, 103)에서 생성된 예측 블록과, 역 변환부(109)를 통해 생성된 잔차 블록을 증산하여 복원 블록을 생성한다.
필터부(111)는 디블록킹 필터, 오프셋 보정부, ALF(Adaptive Loop Filter)중 적어도 하나를 포함할 수 있다.
디블록킹 필터는 복원된 픽쳐에서 블록간의 경계로 인해 생긴 블록 왜곡을 제거할 수 있다. 디블록킹을 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 픽셀을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 강한 필터(Strong Filter) 또는 약한 필터(Weak Filter)를 적용할 수 있다. 또한 디블록킹 필터를 적용함에 있어 수직 필터링 및 수평 필터링 수행시 수평 방향 필터링 및 수직 방향 필터링이 병행 처리되도록 할 수 있다.
오프셋 보정부는 디블록킹을 수행한 영상에 대해 픽셀 단위로 원본 영상과의 오프셋을 보정할 수 있다. 특정 픽쳐에 대한 오프셋 보정을 수행하기 위해 영상에 포함된 픽셀을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 픽셀의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.
ALF(Adaptive Loop Filtering)는 필터링한 복원 영상과 원래의 영상을 비교한 값을 기초로 수행될 수 있다. 영상에 포함된 픽셀을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 하나의 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. ALF를 적용할지 여부에 관련된 정보는 휘도 신호는 부호화 단위(Coding Unit, CU) 별로 전송될 수 있고, 각각의 블록에 따라 적용될 ALF 필터의 모양 및 필터 계수는 달라질 수 있다. 또한, 적용 대상 블록의 특성에 상관없이 동일한 형태(고정된 형태)의 ALF 필터가 적용될 수도 있다.
메모리(112)는 필터부(111)를 통해 산출된 복원 블록 또는 픽쳐를 저장할 수 있고, 저장된 복원 블록 또는 픽쳐는 인터 예측을 수행 시 예측부(102, 103)에 제공될 수 있다.
도 2는 본 발명의 일 실시예에 따른 영상 복호화 장치(200)를 나타낸 블록도이다.
도 2를 참조하면, 영상 복호화 장치(200)는 엔트로피 복호화부(201), 역양자화부(202), 역변환부(203), 가산부(204), 필터부(205), 메모리(206) 및 예측부(207, 208)를 포함할 수 있다.
영상 부호화 장치(100)에 의해 생성된 영상 비트스트림이 영상 복호화 장치(200)로 입력되는 경우, 입력된 비트스트림은 영상 부호화 장치(100)에서 수행된 과정과 반대의 과정에 따라 복호될 수 있다.
엔트로피 복호화부(201)는 영상 부호화 장치(100)의 엔트로피 부호화부(107)에서 엔트로피 부호화를 수행한 것과 반대의 절차로 엔트로피 복호화를 수행할 수 있다. 예를 들어, 영상 부호화기에서 수행된 방법에 대응하여 지수 골롬(Exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 다양한 방법이 적용될 수 있다. 엔트로피 복호화부(201)에서, 변환 블록의 계수는, 변환 블록 내 부분 블록 단위로, 0이 아닌 계수, 절대값이 1 또는 2보다 큰 계수, 그리고 계수의 부호 등을 나타내는 여러 종류의 플래그를 기반으로 복호화될 수 있다. 상기 플래그만으로 표현되지 않는 계수는, 플래그를 통해 표현되는 계수와 시그날링된 계수의 합을 통해 복호화될 수 있다.
엔트로피 복호화부(201)에서는 부호화기에서 수행된 인트라 예측 및 인터 예측에 관련된 정보를 복호화할 수 있다. 역 양자화부(202)는 양자화된 변환 블록에 역 양자화를 수행하여 변환 블록을 생성한다. 도 1의 역 양자화부(108)와 실질적으로 동일하게 동작한다.
역 변환부(203)은 변환 블록에 역 변환을 수행하여 잔차 블록을 생성한다. 이때, 변환 방법은 예측 방법(인터 또는 인트라 예측), 블록의 크기 및/또는 형태, 인트라 예측 모드 등에 관한 정보를 기반으로 결정될 수 있다. 도 1의 역 변환부(109)와 실질적으로 동일하게 동작한다.
가산부(204)는, 화면 내 예측부(207) 혹은 화면 간 예측부(208)에서 생성된 예측 블록과 역 변환부(203)를 통해 생성된 잔차 블록를 증산하여 복원 블록을 생성한다. 도 1의 가산부(110)과 실질적으로 동일하게 동작한다.
필터부(205)는, 복원된 블록들에 발생하는 여러 종류의 노이즈를 감소시킨다. 필터부(205)는 디블록킹 필터, 오프셋 보정부, ALF를 포함할 수 있다.
영상 부호화 장치(100)로부터 해당 블록 또는 픽쳐에 디블록킹 필터를 적용하였는지 여부에 대한 정보 및 디블록킹 필터를 적용하였을 경우, 강한 필터를 적용하였는지 또는 약한 필터를 적용하였는지에 대한 정보를 제공받을 수 있다. 영상 복호화 장치(200)의 디블록킹 필터에서는 영상 부호화 장치(100)에서 제공된 디블록킹 필터 관련 정보를 제공받고 영상 복호화 장치(200)에서 해당 블록에 대한 디블록킹 필터링을 수행할 수 있다.
오프셋 보정부는 부호화시 영상에 적용된 오프셋 보정의 종류 및 오프셋 값 정보 등을 기초로 복원된 영상에 오프셋 보정을 수행할 수 있다.
ALF는 영상 부호화 장치(100)로부터 제공된 ALF 적용 여부 정보, ALF 계수 정보 등을 기초로 부호화 단위에 적용될 수 있다. 이러한 ALF 정보는 특정한 파라미터 셋에 포함되어 제공될 수 있다. 필터부(205)는 도 1의 필터부(111)와 실질적으로 동일하게 동작한다.
메모리(206)는 가산부(204)에 의해 생성된 복원 블록을 저장한다. 도 1의 메모리(112)와 실질적으로 동일하게 동작한다.
예측부(207, 208)는 엔트로피 복호화부(201)에서 제공된 예측 블록 생성 관련 정보와 메모리(206)에서 제공된 이전에 복호화된 블록 또는 픽쳐 정보를 기초로 예측 블록을 생성할 수 있다.
예측부(207, 208)는 화면 내 예측부(207) 및 화면 간 예측부(208)를 포함할 수 있다. 별도로 도시되지는 아니하였으나, 예측부(207, 208)는 예측 단위 판별부를 더 포함할 수 있다. 예측 단위 판별부는 엔트로피 복호화부(201)에서 입력되는 예측 단위 정보, 인트라 예측 방법의 예측 모드 정보, 인터 예측 방법의 모션 예측 관련 정보 등 다양한 정보를 입력 받고 현재 부호화 단위에서 예측 단위를 구분하고, 예측 단위가 인터 예측을 수행하는지 아니면 인트라 예측을 수행하는지 여부를 판별할 수 있다. 화면 간 예측부(208)는 영상 부호화 장치(100)에서 제공된 현재 예측 단위의 인터 예측에 필요한 정보를 이용해 현재 예측 단위가 포함된 현재 픽쳐의 이전 픽쳐 또는 이후 픽쳐 중 적어도 하나의 픽쳐에 포함된 정보를 기초로 현재 예측 단위에 대한 인터 예측을 수행할 수 있다. 또는, 현재 예측 단위가 포함된 현재 픽쳐 내에서 기-복원된 일부 영역의 정보를 기초로 인터 예측을 수행할 수도 있다.
화면 간 예측을 수행하기 위해 부호화 블록을 기준으로 해당 부호화 블록에 포함된 예측 블록의 모션 예측 방법이 스킵 모드(Skip Mode), 머지 모드(Merge 모드), AMVP 모드(AMVP Mode) 중 어떠한 방법인지 여부를 판단할 수 있다.
화면 내 예측부(207)는, 현재 부호화하려는 블록 주변에 위치한, 그리고 기 복원된 화소들을 이용하여 예측 블록을 생성한다.
화면 내 예측부(207)는 AIS(Adaptive Intra Smoothing) 필터, 참조 화소 보간부, DC 필터를 포함할 수 있다. AIS 필터는 현재 블록의 참조 화소에 필터링을 수행하는 필터로써 현재 예측 블록의 예측 모드에 따라 필터의 적용 여부를 적응적으로 결정할 수 있다. 영상 부호화 장치(100)에서 제공된 예측 블록의 예측 모드 및 AIS 필터 정보를 이용하여 현재 블록의 참조 화소에 AIS 필터링을 수행할 수 있다. 현재 블록의 예측 모드가 AIS 필터링을 수행하지 않는 모드일 경우, AIS 필터는 적용되지 않을 수 있다.
화면 내 예측부(207)의 참조 화소 보간부는 예측 블록의 예측 모드가 참조 화소를 보간한 화소값을 기초로 인트라 예측을 수행하는 예측 블록일 경우, 참조 화소를 보간하여 분수 단위 위치의 참조 화소를 생성할 수 있다. 생성된 분수 단위 위치의 참조 화소가 현재 블록 내의 화소의 예측 화소로 이용될 수 있다. 현재 예측 블록의 예측 모드가 참조 화소를 보간하지 않고 예측 블록을 생성하는 예측 모드일 경우 참조 화소는 보간되지 않을 수 있다. DC 필터는 현재 블록의 예측 모드가 DC 모드일 경우 필터링을 통해서 예측 블록을 생성할 수 있다.
화면 내 예측부(207)는 도 1의 화면 내 예측부(102)와 실질적으로 동일하게 동작한다.
화면 간 예측부(208)는, 메모리(206)에 저장된 참조 픽처, 움직임 정보를 이용하여 인터 예측 블록을 생성한다. 화면 간 예측부(208)는 도 1의 화면 간 예측부(103)와 실질적으로 동일하게 동작한다.
상술한 내용을 바탕으로, 본 발명에 따른, 영상 복호화 방법 및 영상 부호화 방법을 설명하도록 한다.
본 발명에 따른 영상 부호화 장치는 변환 계수에 대한 에너지 집중도를 높이기 위하여 2번의 변환(1차 변환 및 2차 변환)을 수행할 수 있다. 이에 따라, 본 발명에 따른 영상 복호화 장치 또한 2번의 역변환(2차 역변환 및 1차 역변환)을 수행할 수 있다. 1차 변환과 2차 변환은 동일한 방식의 변환 방법을 이용할 수 있고, 서로 다른 방식의 변환 방법을 이용할 수도 있다.
도 3 및 도 4를 참고하여 본 발명의 일 실시 예에 따른 변환 및 역변환에 대해 설명하도록 한다.
도 3은 본 발명에 따른 영상 부호화 장치의 변환 방법을 설명하기 위한 흐름도이다.
도 3을 참고하면, 영상 부호화 장치는 잔차 블록에 변환 블록 단위로 1차 변환을 수행할 수 있다(S301). 그리고, 영상 부호화 장치는 1차 변환이 수행된 변환 블록의 변환 계수들에 대해 2차 변환을 수행할 수 있다(S302). 2차 변환은 1차 변환이 수행된 변환 블록 전체 또는 일부 영역에 대해서만 수행될 수 있다.
도 4는 본 발명에 따른 영상 복호화 장치의 변환 방법을 설명하기 위한 흐름도이다.
도 4를 참고하면, 영상 복호화 장치는 역양자화된 블록에 2차 역변환을 수행할 수 있다. 그리고, 영상 복호화 장치는 2차 역변환된 블록에 1차 역변환을 수행할 수 있다.
이하에서는, 도 5 내지 도 10을 참고하여 변환이 수행되는 변환 수행 영역의 결정 방법에 대해 설명하도록 한다.
여기서, 도 5 내지 도 8은 예측 모드에 기초한 변환 수행 영역의 결정 방법을 설명하기 위한 도면이고, 도 9 및 도 10은 변환 블록의 주파수 영역에 기초한 변환 수행 영역의 결정방법을 설명하기 위한 도면이다.
먼저, 본 발명의 일 실시 예에 따른 예측 모드에 기초한 변환 수행 영역의 결정 방법에 대해 설명하도록 한다.
도 5는 화면 내 예측 모드에 기초한 변환 수행 영역의 결정 방법을 나타내는 흐름도이다.
도 5를 참고하면, S501단계에서는 현재 변환 블록에 대응하는 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드인지 판단한다. 여기서, 가로 방향 예측 모드란 예측 블록의 좌측 영역의 참조 화소를 이용하여 화면 내 예측을 수행하는 적어도 하나의 화면 내 예측 모드를 의미할 수 있다. 도 6은 본 발명의 일 실시 예에 따른 가로 방향 예측 모드를 설명하기 위한 도면이다.
도 6을 참고하면, HAbove 모드는 가로 방향 예측 모드 범위에 속하는 화면 내 예측 모드들 중, 최대 색인 정보를 갖는 예측 모드를 의미하고, HBottom 모드는 가로 방향 예측 범위에 속하는 화면 내 예측 모드들 중, 최소 색인 정보를 갖는 예측 모드를 의미할 수 있다. 따라서, HAbove 모드와 HBottom 모드 사이의 각도 예측 모드들을 가로 방향 예측 모드를 의미할 수 있다.
S501단계에서 현재 변환 블록에 대응하는 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드인 경우(S501-예), S502단계가 수행될 수 있다.
S502단계에서는 2차 변환 수행 영역을 현재 변환 블록 내의 좌측 영역으로 결정할 수 있다.
S501단계에서 현재 변환 블록에 대응하는 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드가 아닌 경우(S501-아니오), S503단계가 수행될 수 있다.
S503단계에서는 현재 변환 블록에 대응하는 예측 블록의 화면 내 예측 모드가 세로 방향 예측 모드인지 판단한다. 여기서, 세로 방향 예측 모드란 예측 블록의 상단 영역의 참조 화소를 이용하여 화면 내 예측을 수행하는 적어도 하나의 화면 내 예측 모드를 의미할 수 있다. 도 7은 본 발명의 일 실시 예에 따른 세로 방향 예측 모드를 설명하기 위한 도면이다.
도 7을 참고하면, Vleft 모드는 세로 방향 예측 모드 범위에 속하는 화면 내 예측 모드들 중, 최소 색인 정보를 갖는 예측 모드를 의미하고, Vright 모드는 세로 방향 예측 범위에 속하는 화면 내 예측 모드들 중, 최대 색인 정보를 갖는 예측 모드를 의미할 수 있다. 따라서, Vleft 모드와, Vright 모드 사이의 각도 예측 모드들을 세로 방향 예측 모드를 의미할 수 있다.
S503단계에서 현재 변환 블록에 대응하는 예측 블록의 화면 내 예측 모드가 세로 방향 예측 모드인 경우(S503-예), S504단계가 수행될 수 있다.
S504단계에서는 2차 변환 수행 영역을 현재 변환 블록 내의 상단 영역으로 결정할 수 있다.
S503단계에서 현재 변환 블록에 대응하는 예측 블록의 화면 내 예측 모드가 세로 방향 예측 모드가 아닌 경우(S503-아니오), S505단계가 수행될 수 있다.
S505단계에서는 2차 변환 수행 영역을 현재 변환 블록 내의 좌상단 영역으로 결정할 수 있다.
도 8은 본 발명의 일 실시 예에 따른 현재 변환 블록내의 좌측 영역, 상단 영역 및 좌상단 영역을 설명하기 위한 도면이다.
도 8을 참고하면, 도 5에서 전술한 방식으로 2차 변환 영역이 현재 변환 블록내의 좌측 영역으로 결정되는 경우, 좌측 영역은 변환 블록의 1/4 좌측 영역(801) 또는 1/2 좌측 영역(802)일 수 있다.
그리고, 2차 변환 영역이 현재 변환 블록내의 상단 영역으로 결정되는 경우, 상단 영역은 변환 블록의 1/4 상단 영역(803) 또는 1/2 상단 영역(804)일 수 있다.
그리고, 2차 변환 영역이 현재 변환 블록내의 좌상단 영역으로 결정되는 경우, 좌상단 영역은 변환 블록의 1/4 좌상단 영역(805) 또는 1/2 좌상단 영역(806)일 수 있다.
도 5 내지 도 8은 영상 부호화 장치에서 2차 변환을 수행하는 경우를 가정하여 설명하였다. 그러나, 이에 한정되지 아니하고, 영상 복호화 장치에서 상술한 방법과 동일하게 2차 역변환 수행 영역을 결정할 수 있다.
다음으로, 본 발명의 일 실시 예에 따른 변환 블록의 주파수 영역에 기초한 변환 수행 영역의 결정 방법에 대해 설명하도록 한다.
도 9는 변환 블록의 주파수 영역에 기초한 변환 수행 영역의 결정 방법을 나타내는 흐름도이다.
도 9를 참고하면, S901단계에서는 변환 기저에 따라서 변환 블록 내의 저주파 영역을 결정한다. 여기서, 변환 블록 내 저주파 영역은 변환 기저에 따라서 달라질 수 있다. 그리고, S902단계에서는 2차 변환 수행 영역을 변환 블록 내 저주파 영역으로 결정할 수 있다.
한편, 저주파 영역을 특정하는 주파수의 범위는 영상 부호화 장치 및 영상 복호화 장치에 동일하게 고정될 수 있다. 또는, 영상 부호화 장치에서 별도의 정보를 영상 복호화 장치에 전송하여 저주파 영역을 특정하는 주파수의 범위를 결정할 수 있다.
도 10은 변환 블록의 주파수 영역에 기초한 변환 수행 영역을 결정한 예시를 나타내는 도면이다.
본 발명의 일 실시 예에 따른 영상 부호화 장치에서 1차 변환 후 변환 블록의 저주파 영역은 변환 블록 내의 좌상단 영역일 수 있다. 또한, 영상 복호화 장치에서 역양자화 후 변환 블록의 저주파 영역은 변환 블록 내의 좌상단 영역일 수 있다. 도 10은 위와 같은 가정 하에서 2차 변환 수행 영역을 나타낸다.
도 10을 참조하면, 영상 부호화 장치/영상 복호화 장치는 변환 블록의 좌상단 1/16 영역을 저주파 영역으로 결정하여, 해당 영역을 2차 변환 수행 영역으로 결정할 수 있다(1001).
또는, 영상 부호화 장치/영상 복호화 장치는 변환 블록의 좌상단 1/4 영역을 저주파 영역으로 결정하여, 해당 영역을 2차 변환 수행 영역으로 결정할 수 있다(1002).
도 5 내지 도 10에서는 2차 변환 또는 2차 역변환이 수행되는 변환 수행 영역의 결정 방법에 대해 설명하였으나, 이에 한정되지 않고 동일한 방법으로 1차 변환 또는 1차 역변환이 수행되는 변환 수행 영역이 결정될 수도 있다.
또한, 일 실시 예에 따라 변환 수행 영역은 변환 블록 전체로 결정하는 것도 가능할 수 있다.
그리고, 영상 부호화 장치와 영상 복호화 장치에서 전술한 방법으로 동일하게 2차 변환 수행 영역 및 2차 역변환 수행 영역을 결정할 수 있지만, 전술한 방법에 의해 결정된 2차 변환 수행 영역 정보를 영상 부호화 장치에서 부호화하여 영상 복호화 장치로 전송할 수도 있다. 이 경우, 해당 정보는 상위레벨(비디오 계층, 시퀀스 계층, 픽쳐 계층, 슬라이스 계층, 부호화 블록 계층 등)에서 또는 변환 블록 단위로 전송할 수도 있다.
이하에서는 도 11 내지 도 15를 참고하여, 1차 변환 수행 영역 또는 2차 변환 수행 영역의 분할하는 방법을 설명하도록 한다. 이하에서는, 상위 변환 블록으로부터 분할된 변환 블록을 서브 변환 블록으로 정의한다.
도 11 및 도 12는 변환 블록의 쿼드 트리 분할을 설명하기 위한 도면이다.
도 11은 변환 블록을 서브 변환 블록으로 쿼드 트리 분할하는 과정에서 최적의 쿼드트리 분할 정보를 부호화하는 방법을 나타내는 흐름도이다. 여기서, 전체 변환 블록은 최상위 분할 깊이의 변환 블록을 의미할 수 있고, 현재 서브 변환 블록은 현재 부호화 중인 서브 변환 블록을 의미하며, 현재 부분 블록은 현재 서브 변환 블록에서 분할된 부분 블록들 중 현재 부호화 중인 부분 블록을 의미할 수 있다.
도 11을 참고하면, S1101단계에서는 전체 변환 블록을 현재 서브 변환 블록으로 설정할 수 있다.
그리고, S1102단계에서는 현재 서브 변환 블록에서의 쿼드트리 분할 정보를 부호화할 수 있다.
그리고, S1103단계에서는 현재 서브 변환 블록에서 기 부호화된 쿼드트리 분할 정보가 참 인지 거짓인 판단할 수 있다.
현재 서브 변환 블록에서 부호화된 쿼드트리 분할 정보가 거짓인 경우(S1103-아니오), 쿼드트리 분할 부호화 과정을 종료할 수 있다.
반대로, 현재 서브 변환 블록에서 부호화된 쿼드트리 분할 정보가 참인 경우(S1103-예), S1104 단계가 수행될 수 있다.
S1104단계에서는 현재 서브 변환 블록를 쿼드트리 분할하여 4개의 부분 블록을 생성할 수 있다.
그리고, S1105단계에서는 현재 서브 변환 블록에서 분할된 부분 블록들의 부호화 순으로, 현재 부호화 중인 부분 블록(이하, 현재 부분 블록라고 함)의 쿼드 트리 분할 정보를 부호화할 수 있다.
그리고, S1106단계에서는 현재 부분 블록이 현재 서브 변환 블록 내에서 마지막 부호화 순서에 해당하는 부분 블록인지 판단할 수 있다.
현재 부분 블록이 현재 서브 변환 블록 내에서 마지막 부호화 순서에 해당하는 부분 블록인 경우(S1106-예), S1109단계가 수행될 수 있다.
S1109단계에서는 현재 부분 블록이 전체 변환 블록 내에서 마지막 부호화 순서에 해당하는 부분 블록인지 판단할 수 있다.
현재 부분 블록이 전체 변환 블록 내에서 마지막 부호화 순서에 해당하는 부분 블록인 경우(S1109-예), 쿼드트리 분할 부호화 과정을 종료할 수 있다.
반대로, 현재 부분 블록이 전체 변환 블록 내에서 마지막 부호화 순서에 해당하는 부분 블록이 아닌 경우(S1109-아니오), S1110단계에서 현재 서브 변환 블록을 상위 깊이의 현재 부분 블록으로 설정한 후, S1105단계로 돌아가서 상위 깊이의 현재 부분 블록의 다음 부호화 순서의 부분 블록의 쿼드트리 분할 정보 부호화 과정을 수행할 수 있다.
S1107 단계에서는 전술한 S1106 단계에서 현재 부분 블록이 현재 서브 변환 블록 내에서 마지막 부호화 순서에 해당하는 부분 블록이 아니었을 때(S1106-아니오), 해당 부분 블록의 쿼드트리 분할 정보가 참인지 거짓인지 판단할 수 있다. 여기서, 해당 정보가 거짓이었다면(S1107-아니오), S1105 단계로 돌아가서 현재 부분 블록의 다음 부호화 순서의 부분 블록 쿼드트리 분할 정보 부호화 과정을 수행할 수 있다.
반대로, 해당 정보가 참이었다면(S1107-예), S1108 단계에서 현재 부분 블록을 하위 깊이의 현재 서브 변환 블록으로 설정하고, S1104 단계로 돌아가서 상기 과정을 반복할 수 있다.
한편, 쿼드트리 분할이 가능한 변환 블록의 최대/최소 크기, 쿼드트리 분할이 가능한 최대 깊이, 현재 변환 블록에서 분할 가능한 깊이 등은 영상 부호화 장치 및 영상 복호화 장치에 동일하게 고정되거나, 영상 부호화 장치에서 상위 헤더(슬라이스 계층, 픽쳐 계층, 시퀀스 계층, 비디오 계층 등)를 통해 영상 복호화 장치로 전송될 수 있다.
도 12는 쿼드트리 분할 정보를 복호화하여 변환 블록을 서브 변환 블록으로 쿼드 트리 분할하는 방법을 나타내는 흐름도이다.
도 12를 참고하면, S1201단계에서는 전체 변환 블록을 현재 서브 변환 블록으로 설정할 수 있다.
그리고, S1202단계에서는 현재 서브 변환 블록에서의 쿼드트리 분할 정보를 복호화할 수 있다.
그리고, S1203단계에서는 현재 서브 변환 블록에서 복호화된 쿼드트리 분할 정보가 참 인지 거짓인 판단할 수 있다.
현재 서브 변환 블록에서 복호화된 쿼드트리 분할 정보가 거짓인 경우(S1203-아니오), 쿼드트리 분할 부호화 과정을 종료할 수 있다.
반대로, 현재 서브 변환 블록에서 복호화된 쿼드트리 분할 정보가 참인 경우(S1203-예), S1204 단계가 수행될 수 있다.
S1204단계에서는 현재 서브 변환 블록를 쿼드트리 분할하여 4개의 부분 블록을 생성할 수 있다.
그리고, S1205단계에서는 현재 서브 변환 블록에서 분할된 부분 블록들의 복호화 순으로, 현재 복호화 중인 부분 블록(이하, 현재 부분 블록라고 함)의 쿼드 트리 분할 정보를 부호화할 수 있다.
그리고, S1206단계에서는 현재 부분 블록이 현재 서브 변환 블록 내에서 마지막 복호화 순서에 해당하는 부분 블록인지 판단할 수 있다.
현재 부분 블록이 현재 서브 변환 블록 내에서 마지막 복호화 순서에 해당하는 부분 블록인 경우(S1206-예), S1209단계가 수행될 수 있다.
S1209단계에서는 현재 부분 블록이 전체 변환 블록 내에서 마지막 복호화 순서에 해당하는 부분 블록인지 판단할 수 있다.
현재 부분 블록이 전체 변환 블록 내에서 마지막 부호화 순서에 해당하는 부분 블록인 경우(S1209-예), 쿼드트리 분할 복호화 과정을 종료할 수 있다.
반대로, 현재 부분 블록이 전체 변환 블록 내에서 마지막 복호화 순서에 해당하는 부분 블록이 아닌 경우(S1209-아니오), S1210단계에서 현재 서브 변환 블록을 상위 깊이의 현재 부분 블록으로 설정한 후, S1205단계로 돌아가서 상위 깊이의 현재 부분 블록의 다음 복호화 순서의 부분 블록의 쿼드트리 분할 정보 부호화 과정을 수행할 수 있다.
S1207 단계에서는 전술한 S1206 단계에서 현재 부분 블록이 현재 서브 변환 블록 내에서 마지막 복호화 순서에 해당하는 부분 블록이 아니었을 때(S1206-아니오), 해당 부분 블록의 쿼드트리 분할 정보가 참인지 거짓인지 판단할 수 있다. 여기서, 해당 정보가 거짓이었다면(S1207-아니오), S1205 단계로 돌아가서 현재 부분 블록의 다음 복호화 순서의 부분 블록 쿼드트리 분할 정보 복호화 과정을 수행할 수 있다.
반대로, 해당 정보가 참이었다면(S1207-예), S1208 단계에서 현재 부분 블록을 하위 깊이의 현재 서브 변환 블록으로 설정하고, S1204 단계로 돌아가서 상기 과정을 반복할 수 있다.
도 13 및 도 14는 변환 블록의 이진트리 분할을 설명하기 위한 도면이다.
도 13 및 도 14는 전술한 도 11 및 12에서 쿼드트리 분할을 이진트리 분할로 변경된 것과 쿼드트리 분할 정보를 이진트리 분할 정보로 변경된 것을 제외하고 나머지 일련의 과정들이 동일하다. 따라서, 도 13 및 도 14의 설명은 생략하도록 한다.
도 15는 쿼드트리 분할과 이진트리 분할을 이용하여 변환 수행 영역이 부분 변환 블록으로 분할된 예시를 나타낸 도면이다. 여기서, 변환 수행 영역은 전체 변환 블록을 의미할 수 있다. 도 15에서 변환 수행 영역은 현재 블록의 좌상단으로 결정된 것으로 가정한다.
도 15를 참고하면, 1501은 전체 변환 블록을 쿼드트리 분할 방법으로만 분할하여 분할된 부분 변환 블록의 형태를 나타낸 것이고, 1502는 전체 변환 블록을 이진트리 분할 방법으로만 분할하여 분할된 부분 변환 블록의 형태를 나타낸 것이다. 그리고, 1503은 전체 변환 블록을 쿼드트리 분할 방법 및 이진트리 분할 방법으로 분할하여 분할된 부분 변환 블록의 형태를 나타낸 것이다.
한편, 영상 부호화 장치와 영상 복호화 장치는 변환 수행 영역 내에서 전체 변환 블록의 크기에 기초하여 변환 블록의 분할 형태를 동일하게 결정할 수 있다.
일 예로, 전체 변환 블록의 가로 길이 및 세로 길이가 모두 8 이상인 경우에는, 좌상단 8x8 서브 변환 블록에 대해서만 변환이 수행될 수 있고, 그렇지 않은 경우에는 좌상단 4x4 서브 변환 블록에 대해서만 변환이 수행될 수도 있다.
이상의 실시 예에 따라 변환 수행 영역 내 서브 변환 블록의 분할 형태가 결정된 후, 서브 변환 블록 단위로 변환 또는 역변환이 수행될 수 있다. 이하에서는 2차 변환 수행 영역 내에서 서브 변환 블록 단위로 2차 변환을 수행하기 전 또는 수행한 후에 수행될 수 있는 계수 스캔 방법 및 재정렬 방법에 대해 설명하도록 한다. 여기서, 2차 변환 수행 영역 및 2차 변환은 2차 역변환 수행 영역 및 2차 역변환을 포함하는 개념일 수 있다.
도 16은 2D 변환 방법이 아닌 1D 변환 방법을 수행하기 위하여 2D 서브 변환 블록을 1D 서브 변환 블록으로 변경할 때, 2D 서브 변환 블록을 스캔하는 방법과 재정렬하는 방법의 예시를 나타낸다.
도 16을 참고하면, 1601은 2차 변환이 수행되기 전에 1차 변환이 수행된 2D 서브 변환 블록을 수직 방향으로 스캔하여 1D 서브 변환 블록으로 재정렬하는 방법을 나타낸다. 여기서, 수직 방향 스캔 순서는 C00, C10, C20, C01, …, C23, C33 이고, 동일한 순서로 1D 서브 변환 블록에 맵핑할 수 있다.
1602은 2차 변환이 수행되기 전에 1차 변환이 수행된 2D 서브 변환 블록을 수평 방향으로 스캔하여 1D 서브 변환 블록으로 재정렬하는 방법을 나타낸다. 여기서, 수평 방향 스캔 순서는 C00, C01, C02, C03, C10, …, C32, C33 이고, 동일한 순서로 1D 서브 변환 블록에 맵핑할 수 있다.
1603은 2차 변환이 수행되기 전에 1차 변환이 수행된 2D 서브 변환 블록을 45도 대각 방향으로 스캔하여 1D 서브 변환 블록으로 재정렬하는 방법을 나타낸다. 여기서, 45도 대각 방향 스캔 순서는 C00, C10, C01, C20, C11, …, C23, C33 이고, 동일한 순서로 1D 서브 변환 블록에 맵핑할 수 있다.
도 17은 2D 서브 변환 블록을 스캔하는 방법과 재정렬하는 방법의 예시를 나타낸다.
도 17를 참고하면, 1701은 2차 변환이 수행된 후에 2차 변환이 수행된 2D 서브 변환 블록을 수직 방향으로 스캔하여 2D 서브 변환 블록으로 재정렬하는 방법을 나타낸다. 여기서, 수직 방향 스캔 순서는 C00, C10, C20, C01, …, C23, C33 이고, 동일한 순서로 2D 서브 변환 블록에 맵핑할 수 있다.
1702은 2차 변환이 수행된 후에 2차 변환이 수행된 2D 서브 변환 블록을 수평 방향으로 스캔하여 2D 서브 변환 블록으로 재정렬하는 방법을 나타낸다. 여기서, 수평 방향 스캔 순서는 C00, C01, C02, C03, C10, …, C32, C33 이고, 동일한 순서로 2D 서브 변환 블록에 맵핑할 수 있다.
1703은 2차 변환이 수행된 후에 2차 변환이 수행된 2D 서브 변환 블록을 45도 대각 방향으로 스캔하여 2D 서브 변환 블록으로 재정렬하는 방법을 나타낸다. 여기서, 45도 대각 방향 스캔 순서는 C00, C10, C01, C20, C11, …, C23, C33 이고, 동일한 순서로 2D 서브 변환 블록에 맵핑할 수 있다.
한편, 도 17에서 설명하는 방법은 2차 변환 전에 수행될 수도 있다.
또한, 도 16 및 도 17의 스캔 방법은 수직 방향, 수평 방향, 45도 대각 방향 이외에 다양한 방향의 스캔 방법이 이용될 수 있다. 그리고, 도 16 및 도 17에서는 2차 변환 또는 2차 역변환을 예시로 설명하였으나, 1차 변환 및 1차 역변환의 경우에도 전술한 방법이 적용될 수도 있다.
이하에서는, 전술한 서브 변환 블록의 계수 스캔 방법을 결정하는 방법에 대해 설명하도록 한다.
본 발명의 일 실시 예에 따르면, 서브 변환 블록의 계수 스캔 방법은 예측 모드에 따라서 스캔 방법이 서브 변환 블록 단위로 다르게 수행될 수 있다.
도 18은 현재 변환 블록 생성을 위해 수행된 예측 모드에 따라서 서브 변환 블록 스캔 방법을 결정하는 방법을 설명한 흐름도이다.
도 18을 참고하면, S1801단계에서는 현재 변환 블록 생성을 위해 수행된 예측 모드가 화면 내 예측 모드 중 가로 방향 예측 모드들 중 하나인지 아닌지 판단할 수 있다.
그리고, S1802단계에서는 S1801단계에서 판단한 조건이 참일 때, 서브 변환 블록 스캔 방법을 수직방향 스캔 방법으로 결정할 수 있다.
그리고, S1803단계에서는 S1801단계에서 판단한 조건이 거짓일 때, 현재 변환 블록 생성을 위해 수행된 예측 모드가 화면 내 예측 모드 중 세로 방향 예측 모드들 중 하나인지 아닌지 판단할 수 있다.
그리고, S1804 단계에서는 S1803단계에서 판단한 조건이 참일 때, 서브 변환 블록 스캔 방법은 수평 방향 스캔 방법으로 결정할 수 있다.
그리고, S1805단계에서는 S1803단계에서 판단한 조건이 거짓일 때, 서브 변환 블록 스캔 방법을 45도 대각 방향 스캔 방법으로 결정할 수 있다. 즉, S1805 단계에서는 현재 변환 블록 생성을 위해 수행된 예측 모드가 화면 내 예측 모드 중 세로 방향 예측 모드들, 가로 방향 예측 모드들에 속하지 않을 때, 서브 변환 블록 스캔 방법은 45도 대각 방향 스캔 방법으로 결정할 수 있다.
본 발명의 다른 실시 예에 따르면, 서브 변환 블록의 계수 스캔 방법은 변환 기저에 따라서 스캔 방법이 서브 변환 블록 단위로 다르게 수행될 수 있다.
도 19는 변환 기저에 따라서 서브 변환 블록 스캔 방법을 결정하는 방법을 설명한 도면이다.
도 19를 참고하면, 좌상단 서브 변환 블록은 45도 대각 방향 스캔 방법으로, 그 외의 서브 변환 블록들은 수직 방향 스캔 방법으로 서브 변환 블록 스캔 방법이 결정될 수 있다.
영상 부호화 장치는 각 서브 변환 블록 별로 RDO를 통하여 최적의 스캔 방법을 결정한 뒤, 최적의 스캔 방법을 부호화하여 영상 복호화 장치에 전송할 수 있다.
도 20은 본 발명의 일 실시 예에 따른 영상 복호화 방법을 설명하기 위한 흐름도이다.
도 20를 참고하면, 영상 복호화 장치는 변환 수행 영역을 결정할 수 있다(S2001).
여기서, 영상 복호화 장치는 현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드에 기초하여 상기 변환 수행 영역을 결정할 수 있다. 구체적으로, 영상 복호화 장치는, 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드인 경우, 현재 변환 블록의 좌측 영역을 변환 수행 영역으로 결정하고, 현재 예측 블록의 화면 내 예측 모드가 세로 방향 예측 모드인 경우, 현재 변환 블록의 상단 영역을 변환 수행 영역으로 결정하고, 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드 및 세로 방향 예측 모드가 아닌 경우, 현재 변환 블록의 좌상단 영역을 변환 수행 영역으로 결정할 수 있다.
한편, 영상 복호화 장치는 현재 변환 블록의 특정 주파수 영역에 기초하여 변환 수행 영역을 결정할 수 있다. 여기서, 특정 주파수 영역은 기 정의된 값을 기초하여 결정될 수 있다.
영상 복호화 장치는 결정된 변환 수행 영역을 쿼드트리 분할 및 이진트리 분할 중 적어도 하나를 이용하여 적어도 하나의 서브 변환 블록으로 분할할 수 있다(S2002).
그리고, 영상 복호화 장치는 적어도 하나의 서브 변환 블록에 역변환을 수행할 수 있다(S2003). 여기서, 역변환은, 1차 역변환 및 2차 역변환 중 어느 하나일 수 있다.
한편, 적어도 하나의 서브 변환 블록은 2D 서브 변환 블록일 수 있다. 이 경우, 영상 복호화 장치는 서브 변환 블록의 계수 스캔 방법을 결정하는 단계 및 결정된 계수 스캔 방법에 기초하여 2D 서브 변환 블록을 재정렬하는 단계를 더 수행 할 수 있다.
여기서, 영상 복호화 장치는 현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드에 기초하여 서브 변환 블록의 계수 스캔 방법을 결정할 수 있다.
도 20에서 상술한 영상 복호화 방법은 영상 부호화 장치의 영상 부호화 방법으로 동일하게 수행될 수도 있다. 이 경우, 역변환은 변환으로 변경될 수 있다.
본 개시의 예시적인 방법들은 설명의 명확성을 위해서 동작의 시리즈로 표현되어 있지만, 이는 단계가 수행되는 순서를 제한하기 위한 것은 아니며, 필요한 경우에는 각각의 단계가 동시에 또는 상이한 순서로 수행될 수도 있다. 본 개시에 따른 방법을 구현하기 위해서, 예시하는 단계에 추가적으로 다른 단계를 포함하거나, 일부의 단계를 제외하고 나머지 단계를 포함하거나, 또는 일부의 단계를 제외하고 추가적인 다른 단계를 포함할 수도 있다.
본 개시의 다양한 실시 예는 모든 가능한 조합을 나열한 것이 아니고 본 개시의 대표적인 양상을 설명하기 위한 것이며, 다양한 실시 예에서 설명하는 사항들은 독립적으로 적용되거나 또는 둘 이상의 조합으로 적용될 수도 있다.
또한, 본 개시의 다양한 실시 예는 하드웨어, 펌웨어(firmware), 소프트웨어, 또는 그들의 결합 등에 의해 구현될 수 있다. 하드웨어에 의한 구현의 경우, 하나 또는 그 이상의 ASICs(Application Specific Integrated Circuits), DSPs(Digital Signal Processors), DSPDs(Digital Signal Processing Devices), PLDs(Programmable Logic Devices), FPGAs(Field Programmable Gate Arrays), 범용 프로세서(general processor), 컨트롤러, 마이크로 컨트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.
본 개시의 범위는 다양한 실시 예의 방법에 따른 동작이 장치 또는 컴퓨터 상에서 실행되도록 하는 소프트웨어 또는 머신-실행가능한 명령들(예를 들어, 운영체제, 애플리케이션, 펌웨어(firmware), 프로그램 등), 및 이러한 소프트웨어 또는 명령 등이 저장되어 장치 또는 컴퓨터 상에서 실행 가능한 비-일시적 컴퓨터-판독가능 매체(non-transitory computer-readable medium)를 포함한다.
본 발명은 영상을 부호화/복호화하는 장치에 이용될 수 있다.

Claims (23)

  1. 변환 수행 영역을 결정하는 단계;
    상기 결정된 변환 수행 영역을 쿼드트리 분할 및 이진트리 분할 중 적어도 하나를 이용하여 적어도 하나의 서브 변환 블록으로 분할하는 단계; 및
    상기 적어도 하나의 서브 변환 블록에 역변환을 수행하는 단계를 포함하는 영상 복호화 방법.
  2. 제1항에 있어서,
    상기 변환 수행 영역을 결정하는 단계는,
    현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드에 기초하여 상기 변환 수행 영역을 결정하는 것을 특징으로 하는 영상 복호화 방법.
  3. 제2항에 있어서,
    상기 변환 수행 영역을 결정하는 단계는,
    상기 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드인 경우, 상기 현재 변환 블록의 좌측 영역을 상기 변환 수행 영역으로 결정하고,
    상기 현재 예측 블록의 화면 내 예측 모드가 세로 방향 예측 모드인 경우, 상기 현재 변환 블록의 상단 영역을 상기 변환 수행 영역으로 결정하고,
    상기 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드 및 세로 방향 예측 모드가 아닌 경우, 상기 현재 변환 블록의 좌상단 영역을 상기 변환 수행 영역으로 결정하는 것을 특징으로 하는 영상 복호화 방법.
  4. 제1항에 있어서,
    상기 변환 수행 영역을 결정하는 단계는,
    현재 변환 블록의 특정 주파수 영역에 기초하여 상기 변환 수행 영역을 결정하는 것을 특징으로 하는 영상 복호화 방법.
  5. 제4항에 있어서,
    상기 특정 주파수 영역은,
    기 정의된 값을 기초하여 결정되는 것을 특징으로 하는 영상 복호화 방법.
  6. 제1항에 있어서,
    상기 역변환은,
    1차 역변환 및 2차 역변환 중 어느 하나인 것을 특징으로 하는 영상 복호화 방법.
  7. 제1항에 있어서,
    상기 적어도 하나의 서브 변환 블록은 2D 서브 변환 블록인 것을 특징으로 하는 영상 복호화 방법.
  8. 제7항에 있어서,
    상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계; 및
    상기 결정된 계수 스캔 방법에 기초하여 상기 2D 서브 변환 블록을 재정렬하는 단계를 더 포함하는 영상 복호화 방법.
  9. 제8항에 있어서,
    상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계는,
    현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드 및 상기 현재 변환 블록의 변환기저 중 적어도 하나에 기초하여 상기 서브 변환 블록의 계수 스캔 방법을 결정하는 것을 특징으로 하는 영상 복호화 방법.
  10. 제8항에 있어서,
    상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계는,
    수직 방향 스캔, 수평 방향 스캔 및 45도 대각 방향 스캔 중 어느 하나의 스캔 방법으로 결정하는 것을 특징으로 하는 영상 복호화 방법.
  11. 제8항에 있어서,
    상기 결정된 계수 스캔 방법에 기초하여 상기 2D 서브 변환 블록을 재정렬하는 단계는,
    상기 2D 서브 변환 블록을 상기 결정된 계수 스캔 방법에 기초하여 1D 서 변환 블록으로 재정렬하는 것을 특징으로 하는 영상 복호화 방법.
  12. 변환 수행 영역을 결정하는 단계;
    상기 결정된 변환 수행 영역을 쿼드트리 분할 및 이진트리 분할 중 적어도 하나를 이용하여 적어도 하나의 서브 변환 블록으로 분할하는 단계; 및
    상기 적어도 하나의 서브 변환 블록에 변환을 수행하는 단계를 포함하는 영상 부호화 방법.
  13. 제12항에 있어서,
    상기 변환 수행 영역을 결정하는 단계는,
    현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드에 기초하여 상기 변환 수행 영역을 결정하는 것을 특징으로 하는 영상 부호화 방법.
  14. 제13항에 있어서,
    상기 변환 수행 영역을 결정하는 단계는,
    상기 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드인 경우, 상기 현재 변환 블록의 좌측 영역을 상기 변환 수행 영역으로 결정하고,
    상기 현재 예측 블록의 화면 내 예측 모드가 세로 방향 예측 모드인 경우, 상기 현재 변환 블록의 상단 영역을 상기 변환 수행 영역으로 결정하고,
    상기 현재 예측 블록의 화면 내 예측 모드가 가로 방향 예측 모드 및 세로 방향 예측 모드가 아닌 경우, 상기 현재 변환 블록의 좌상단 영역을 상기 변환 수행 영역으로 결정하는 것을 특징으로 하는 영상 부호화 방법.
  15. 제12항에 있어서,
    상기 변환 수행 영역을 결정하는 단계는,
    현재 변환 블록의 특정 주파수 영역에 기초하여 상기 변환 수행 영역을 결정하는 것을 특징으로 하는 영상 부호화 방법.
  16. 제15항에 있어서,
    상기 특정 주파수 영역은,
    기 정의된 값을 기초하여 결정되는 것을 특징으로 하는 영상 부호화 방법.
  17. 제12항에 있어서,
    상기 변환은,
    1차 변환 및 2차 변환 중 어느 하나인 것을 특징으로 하는 영상 부호화 방법.
  18. 제12항에 있어서,
    상기 적어도 하나의 서브 변환 블록은 2D 서브 변환 블록인 것을 특징으로 하는 영상 부호화 방법.
  19. 제18항에 있어서,
    상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계; 및
    상기 결정된 계수 스캔 방법에 기초하여 상기 2D 서브 변환 블록을 재정렬하는 단계를 더 포함하는 영상 부호화 방법.
  20. 제19항에 있어서,
    상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계는,
    현재 변환 블록에 대응하는 현재 예측 블록의 화면 내 예측 모드 및 상기 현재 변환 블록의 변환 기저 중 적어도 하나에 기초하여 상기 서브 변환 블록의 계수 스캔 방법을 결정하는 것을 특징으로 하는 영상 부호화 방법.
  21. 제19항에 있어서,
    상기 서브 변환 블록의 계수 스캔 방법을 결정하는 단계는,
    수직 방향 스캔, 수평 방향 스캔 및 45도 대각 방향 스캔 중 어느 하나의 스캔 방법으로 결정하는 것을 특징으로 하는 영상 부호화 방법.
  22. 제19항에 있어서,
    상기 결정된 계수 스캔 방법에 기초하여 상기 2D 서브 변환 블록을 재정렬하는 단계는,
    상기 2D 서브 변환 블록을 상기 결정된 계수 스캔 방법에 기초하여 1D 서 변환 블록으로 재정렬하는 것을 특징으로 하는 영상 부호화 방법.
  23. 변환 수행 영역을 결정하는 단계;
    상기 결정된 변환 수행 영역을 쿼드트리 분할 및 이진트리 분할 중 적어도 하나를 이용하여 적어도 하나의 서브 변환 블록으로 분할하는 단계; 및
    상기 적어도 하나의 서브 변환 블록에 변환을 수행하는 단계를 포함하는 영상 부호화 방법에 의해 생성된 비트스트림을 저장하는 컴퓨터 판독 가능한 기록 매체.
PCT/KR2017/011215 2016-10-14 2017-10-12 영상 부호화 방법/장치, 영상 복호화 방법/장치 및 비트스트림을 저장한 기록 매체 WO2018070788A1 (ko)

Priority Applications (14)

Application Number Priority Date Filing Date Title
US16/341,830 US10979709B2 (en) 2016-10-14 2017-10-12 Image encoding method/device, image decoding method/device and recording medium having bitstream stored therein
CN202311038545.7A CN116886911A (zh) 2016-10-14 2017-10-12 影像编码方法、影像解码方法以及传送比特流的方法
CN202311035109.4A CN116886909A (zh) 2016-10-14 2017-10-12 影像编码方法、影像解码方法以及传送比特流的方法
CN202311034508.9A CN116886906A (zh) 2016-10-14 2017-10-12 影像编码方法、影像解码方法以及传送比特流的方法
CN202311034660.7A CN116886907A (zh) 2016-10-14 2017-10-12 影像编码方法、影像解码方法以及传送比特流的方法
CN202311029873.0A CN116886904A (zh) 2016-10-14 2017-10-12 影像编码方法、影像解码方法以及传送比特流的方法
CN202311034364.7A CN116886905A (zh) 2016-10-14 2017-10-12 影像编码方法、影像解码方法以及传送比特流的方法
CN202311035065.5A CN116886908A (zh) 2016-10-14 2017-10-12 影像编码方法、影像解码方法以及传送比特流的方法
CN201780063400.9A CN109845256B (zh) 2016-10-14 2017-10-12 影像编码方法/装置、影像解码方法/装置以及保存有比特流的记录介质
CN202311036441.2A CN116886910A (zh) 2016-10-14 2017-10-12 影像编码方法、影像解码方法以及传送比特流的方法
CN202311034101.6A CN116939202A (zh) 2016-10-14 2017-10-12 影像编码方法、影像解码方法以及传送比特流的方法
US17/196,160 US11659174B2 (en) 2016-10-14 2021-03-09 Image encoding method/device, image decoding method/device and recording medium having bitstream stored therein
US17/860,353 US20220345703A1 (en) 2016-10-14 2022-07-08 Image encoding method/device, image decoding method/device and recording medium having bitstream stored therein
US17/860,350 US20220368901A1 (en) 2016-10-14 2022-07-08 Image encoding method/device, image decoding method/device and recording medium having bitstream stored therein

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20160133756 2016-10-14
KR10-2016-0133756 2016-10-14
KR10-2017-0127941 2017-09-29
KR1020170127941A KR102416804B1 (ko) 2016-10-14 2017-09-29 영상 부호화 방법/장치, 영상 복호화 방법/장치 및 비트스트림을 저장한 기록 매체

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/341,830 A-371-Of-International US10979709B2 (en) 2016-10-14 2017-10-12 Image encoding method/device, image decoding method/device and recording medium having bitstream stored therein
US17/196,160 Continuation US11659174B2 (en) 2016-10-14 2021-03-09 Image encoding method/device, image decoding method/device and recording medium having bitstream stored therein

Publications (1)

Publication Number Publication Date
WO2018070788A1 true WO2018070788A1 (ko) 2018-04-19

Family

ID=61905785

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/011215 WO2018070788A1 (ko) 2016-10-14 2017-10-12 영상 부호화 방법/장치, 영상 복호화 방법/장치 및 비트스트림을 저장한 기록 매체

Country Status (4)

Country Link
US (2) US20220368901A1 (ko)
KR (1) KR20220098114A (ko)
CN (9) CN116886908A (ko)
WO (1) WO2018070788A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021509559A (ja) * 2018-09-05 2021-03-25 エルジー エレクトロニクス インコーポレイティド ビデオ信号の符号化/復号方法及びそのための装置
US11882310B2 (en) 2018-09-02 2024-01-23 Lg Electronics Inc. Method and apparatus for processing image signal

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220150518A1 (en) * 2020-11-11 2022-05-12 Tencent America LLC Method and apparatus for video coding

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130003828A1 (en) * 2011-07-01 2013-01-03 Cohen Robert A Method for Selecting Transform Types From Mapping Table for Prediction Modes
KR20130084308A (ko) * 2010-11-01 2013-07-24 퀄컴 인코포레이티드 비디오 코딩에 대한 구문 엘리먼트들의 공동 코딩
KR20140126370A (ko) * 2012-04-13 2014-10-30 캐논 가부시끼가이샤 인코딩된 비디오 데이터의 변환 유닛의 서브세트를 인코딩 및 디코딩하는 방법, 장치 및 시스템
KR20150009503A (ko) * 2010-08-17 2015-01-26 삼성전자주식회사 가변적 트리 구조의 변환 단위를 이용하는 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법 및 그 장치
KR101607782B1 (ko) * 2011-06-29 2016-03-30 퀄컴 인코포레이티드 비디오 코딩을 위한 다수 구역 스캐닝 순서

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7822281B2 (en) * 2003-10-31 2010-10-26 Canon Kabushiki Kaisha Digital video compression
GB2429593A (en) * 2005-08-26 2007-02-28 Electrosonic Ltd Data compressing using a wavelet compression scheme
AU2012200319B2 (en) * 2012-01-19 2015-11-26 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding the significance map for residual coefficients of a transform unit
CN115134607A (zh) * 2015-06-11 2022-09-30 杜比实验室特许公司 使用自适应去块滤波编码和解码图像的方法及其装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150009503A (ko) * 2010-08-17 2015-01-26 삼성전자주식회사 가변적 트리 구조의 변환 단위를 이용하는 비디오 부호화 방법과 그 장치, 및 비디오 복호화 방법 및 그 장치
KR20130084308A (ko) * 2010-11-01 2013-07-24 퀄컴 인코포레이티드 비디오 코딩에 대한 구문 엘리먼트들의 공동 코딩
KR101607782B1 (ko) * 2011-06-29 2016-03-30 퀄컴 인코포레이티드 비디오 코딩을 위한 다수 구역 스캐닝 순서
US20130003828A1 (en) * 2011-07-01 2013-01-03 Cohen Robert A Method for Selecting Transform Types From Mapping Table for Prediction Modes
KR20140126370A (ko) * 2012-04-13 2014-10-30 캐논 가부시끼가이샤 인코딩된 비디오 데이터의 변환 유닛의 서브세트를 인코딩 및 디코딩하는 방법, 장치 및 시스템

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11882310B2 (en) 2018-09-02 2024-01-23 Lg Electronics Inc. Method and apparatus for processing image signal
JP7465333B2 (ja) 2018-09-02 2024-04-10 エルジー エレクトロニクス インコーポレイティド 映像信号を処理するための方法及び装置
JP2021509559A (ja) * 2018-09-05 2021-03-25 エルジー エレクトロニクス インコーポレイティド ビデオ信号の符号化/復号方法及びそのための装置
US11245894B2 (en) 2018-09-05 2022-02-08 Lg Electronics Inc. Method for encoding/decoding video signal, and apparatus therefor
JP7055879B2 (ja) 2018-09-05 2022-04-18 エルジー エレクトロニクス インコーポレイティド ビデオ信号の符号化/復号方法及びそのための装置
JP2022084596A (ja) * 2018-09-05 2022-06-07 エルジー エレクトロニクス インコーポレイティド ビデオ信号の符号化/復号方法及びそのための装置
JP7242929B2 (ja) 2018-09-05 2023-03-20 エルジー エレクトロニクス インコーポレイティド ビデオ信号の符号化/復号方法及びそのための装置
US11882273B2 (en) 2018-09-05 2024-01-23 Lg Electronics Inc. Method for encoding/decoding video signal, and apparatus therefor
JP7432031B2 (ja) 2018-09-05 2024-02-15 エルジー エレクトロニクス インコーポレイティド ビデオ信号の符号化/復号方法及びそのための装置

Also Published As

Publication number Publication date
CN116886905A (zh) 2023-10-13
US20220368901A1 (en) 2022-11-17
KR20220098114A (ko) 2022-07-11
CN116886904A (zh) 2023-10-13
CN116886906A (zh) 2023-10-13
CN116886911A (zh) 2023-10-13
CN116886907A (zh) 2023-10-13
CN116886908A (zh) 2023-10-13
US20220345703A1 (en) 2022-10-27
CN116886910A (zh) 2023-10-13
CN116886909A (zh) 2023-10-13
CN116939202A (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
WO2017188652A1 (ko) 영상 부호화/복호화 방법 및 장치
WO2018070790A1 (ko) 영상의 부호화/복호화 방법 및 장치
WO2017164645A2 (ko) 비디오 신호 부호화/복호화 방법 및 장치
WO2018066959A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016052977A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018221817A1 (ko) 영상 코딩 시스템에서 인트라 예측에 따른 영상 디코딩 방법 및 장치
WO2018212578A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018088805A1 (ko) 비디오 신호 처리 방법 및 장치
WO2017179835A1 (ko) 인트라 예측 기반의 비디오 신호 처리 방법 및 장치
WO2014171713A1 (ko) 인트라 예측을 이용한 비디오 부호화/복호화 방법 및 장치
WO2018236028A1 (ko) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
WO2013154366A1 (ko) 블록 정보에 따른 변환 방법 및 이러한 방법을 사용하는 장치
WO2020096425A1 (ko) 영상 신호 부호화/복호화 방법 및 이를 위한 장치
WO2020009419A1 (ko) 병합 후보를 사용하는 비디오 코딩 방법 및 장치
WO2016159610A1 (ko) 비디오 신호 처리 방법 및 장치
WO2019117639A1 (ko) 변환에 기반한 영상 코딩 방법 및 그 장치
WO2013109123A1 (ko) 인트라 예측 처리 속도 향상을 위한 비디오의 부호화 방법 및 장치, 비디오의 복호화 방법 및 장치
WO2016048092A1 (ko) 비디오 신호 처리 방법 및 장치
WO2018044089A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016114583A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016064123A1 (ko) 비디오 신호 처리 방법 및 장치
WO2019194484A1 (ko) 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
WO2016122253A1 (ko) 비디오 신호 처리 방법 및 장치
WO2016122251A1 (ko) 비디오 신호 처리 방법 및 장치
WO2020071879A1 (ko) 변환 계수 코딩 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17860851

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17860851

Country of ref document: EP

Kind code of ref document: A1